Assassin's Creed Valhalla im Techniktest: Prachtvolles Meucheln - erstmals unter DirectX 12

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Assassin's Creed Valhalla im Techniktest: Prachtvolles Meucheln - erstmals unter DirectX 12

Bei Assassin's Creed Valhalla sind die technischen Verbesserungen trotz aktueller Next-Gen-Aufregung relativ unterschwellig. Immerhin nutzt Valhalla als erstes Assassinen-Abenteuer Direct X 12. Wir machen den Technik-Test und prüfen, mit welcher Hardware Sie für die Eroberung Britanniens gerüstet sein sollten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Assassin's Creed Valhalla im Techniktest: Prachtvolles Meucheln - erstmals unter DirectX 12
 
Naja Volle Pracht ist etwas übertrieben.

Es sieht gut aus....mehr aber auch nicht.

In anbetracht von PS5 &Co hätte ich ein Grafikupdate erwartet.
 
Guter Test.

Die CPU Performance ist diesmal hervorragend. Der komplette Wechsel auf DX12 hat sich hier echt gelohnt!

GPU Performance ist aber eher mäßig, besonders auf Turing und Ampere GPUs.

Das Next Gen Assassins Creed sollte auf eine komplett neue Engine setzen, die die neuen Techniken der Konsolen voll ausnutzt.
 
Keine Ahnung was die da machen, aber GR:breakpoint mit der gleichen engine und Vulkan hat es geschafft ordentlich die GraKas auszulasten - hier wieder das übliche wie man es aus GR:Wildlands und AC:O kennt...
 
Wieso testet ihr nicht CPU's wie einen 10700k und einen 10900k als Intel Vertreter und einen 5600X, 5800X und 5900X für AMD?
Aber die CPU scheint in diesem Spiel ja völlig egal zu sein.
Die 3080 Performance im Vergleich zur 2080 Ti ist ja mehr als nur erbärmlich.
Bei gleichem Takt würden von den 24%, die es so schon nur sind, nur noch lächerliche 18% übrig bleiben.
 
Also die GPU Benchmarks in Full HD sind schon extrem strange. Die 3090 schafft es sich 12% von der 3080 abzusetzen, die 3080 aber nur 4% von der 3070 :what:
 
Naja Volle Pracht ist etwas übertrieben.

Es sieht gut aus....mehr aber auch nicht.

In anbetracht von PS5 &Co hätte ich ein Grafikupdate erwartet.
Das ist ein typisches "Cross-Gen"-Problem - erst künftige Spiele, die keine oder kaum mehr Rücksicht auf die scheidende Konsolengeneration nehmen, werden richtige Sprünge machen.

MfG
Raff
 
Stelle den Benchmark oben links auf 4K um.. bei FullHD limitiert die CPU noch.

Ist nicht die CPU. Da limitiert die Grafikkarte.

Aber es könnte eventuell etwas mit Async Compute zu tun haben. Wenn die Auflösung sinkt, könnte Async Compute einen größeren Anteil der Compute-Berechnungen übernehmen, wenn die Vertex-Berechnungen bzw. Geometrie nur einen Teil der Rechenzeit in Anspruch nehmen - gesetzt den Fall das funktioniert auch korrekt. Es könnte sein, dass das bei AMD besser funktioniert als aktuell bei Nvidia. Das wäre zumindest eine logische Erklärung für die großen Abstände zwischen eigentlich ähnlich performanten AMD- und Nvidia-GPUs in Full HD bzw. niedrigen Auflösungen.

Aber generell ist die Full-HD-Performance verglichen mit den höheren recht anspruchsvoll. So was ähnliches haben wir auch schon in RDR2 und HZD gesehen, auch da ist Full HD gegenüber WQHD oder UHD auffallend anspruchsvoll. Vielleicht hängt das auch mit sehr komplexen Shadern zusammen, deren Berechnungszeit verglichen mit dem Rendern des Bildes besonders hoch ausfällt - und damit, dass dadurch erst bei steigenden Auflösungen wieder die Pixeldichte der größte entscheidende Faktor bei der Framerate wird.

Alles Mutmaßung, aber ein CPU-Limit liegt in unseren Benchmarks nicht! vor. Selbst mit 720p, 50 % Skalierung und reduzierten (Wolken- und Schatten-)Details limitiert in den CPU-Messungen noch immer die RTX 3090, nicht! die CPU.

Gruß,
Phil
 
Zuletzt bearbeitet:
Ist nicht die CPU. Da limitiert die Grafikkarte.

Aber es könnte eventuell etwas mit Async Compute zu tun haben. Wenn die Auflösung sinkt, könnte Async Compute einen größeren Anteil der Compute-Berechnungen übernehmen, wenn die Vertex-Berechnungen bzw. Geometrie nur einen Teil der Rechenzeit in Anspruch nehmen - gesetzt den Fall das funktioniert auch korrekt. Es könnte sein, dass das bei AMD besser funktioniert als aktuell bei Nvidia. Das wäre zumindest eine logische Erklärung für die großen Abstände zwischen eigentlich ähnlich performanten AMD- und Nvidia-GPUs in Full HD bzw. niedrigen Auflösungen.

Aber generell ist die Full-HD-Performance verglichen mit den höheren recht anspruchsvoll. So was ähnliches haben wir auch schon in RDR2 und HZD gesehen, auch da ist Full HD gegenüber WQHD oder UHD auffallend anspruchsvoll. Vielleicht hängt das auch mit sehr komplexen Shadern zusammen, deren Berechnungszeit verglichen mit dem Rendern des Bildes besonders hoch ausfällt - und erst bei steigenden Auflösungen wieder die Pixeldichte der größte entscheidende Faktor wird.

Alles Mutmaßung, aber ein CPU-Limit liegt in unseren Benchmarks nicht! vor. Selbst mit 720p, 50 % Skalierung und reduzierten (Wolken- und Schatten-)Details limitiert in den CPU-Messungen noch immer die RTX 3090, nicht! die CPU.

Gruß,
Phil
Euer Benchmark mit der 3090 kann aber nicht ganz stimmen ich hab mit meiner 3090 @2GHz stabile 60fps mit 4k ultra nur das antialiasing auf Mittel gestellt
 
Zuletzt bearbeitet:
Ist nicht die CPU. Da limitiert die Grafikkarte.

Aber es könnte eventuell etwas mit Async Compute zu tun haben. Wenn die Auflösung sinkt, könnte Async Compute einen größeren Anteil der Compute-Berechnungen übernehmen, wenn die Vertex-Berechnungen bzw. Geometrie nur einen Teil der Rechenzeit in Anspruch nehmen - gesetzt den Fall das funktioniert auch korrekt. Es könnte sein, dass das bei AMD besser funktioniert als aktuell bei Nvidia. Das wäre zumindest eine logische Erklärung für die großen Abstände zwischen eigentlich ähnlich performanten AMD- und Nvidia-GPUs in Full HD bzw. niedrigen Auflösungen.

Aber generell ist die Full-HD-Performance verglichen mit den höheren recht anspruchsvoll. So was ähnliches haben wir auch schon in RDR2 und HZD gesehen, auch da ist Full HD gegenüber WQHD oder UHD auffallend anspruchsvoll. Vielleicht hängt das auch mit sehr komplexen Shadern zusammen, deren Berechnungszeit verglichen mit dem Rendern des Bildes besonders hoch ausfällt - und damit, dass dadurch erst bei steigenden Auflösungen wieder die Pixeldichte der größte entscheidende Faktor bei der Framerate wird.

Alles Mutmaßung, aber ein CPU-Limit liegt in unseren Benchmarks nicht! vor. Selbst mit 720p, 50 % Skalierung und reduzierten (Wolken- und Schatten-)Details limitiert in den CPU-Messungen noch immer die RTX 3090, nicht! die CPU.

Gruß,
Phil
Mich stört ja prinzipiell der große Abstand zwischen 3080 und 3090, mit allen anderen Werten kann ich leben.
 
Zurück