Special Hogwarts Legacy PC: Die epischen Hardware-Anforderungen mit 25 Grafikkarten geprüft

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Hogwarts Legacy PC: Die epischen Hardware-Anforderungen mit 25 Grafikkarten geprüft

Hogwarts Legacy ist der erste große Hit des neuen Jahres. Das von der weit ausgebauten Unreal Engine 4 herbeigezauberte Adventure ist außerordentlich stimmig inszeniert, bei voller Pracht sind die Hardware-Anforderungen allerdings gesalzen. Wir haben bis heute auf den Radeon-Treiber gewartet und können ihn nun endlich die volle Packung Benchmarks liefern - und das hat sich gelohnt!

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Hogwarts Legacy PC: Die epischen Hardware-Anforderungen mit 25 Grafikkarten geprüft
 
Hab den Artikel nur überflogen, aber schonmal danke dafür!
Aber welche Grafikfehler sind euch bei AMD denn nach Patch und Treiberupdate noch aufgefallen?
 
Hab den Artikel nur überflogen, aber schonmal danke dafür!
Aber welche Grafikfehler sind euch bei AMD denn nach Patch und Treiberupdate noch aufgefallen?
Keine mehr nach dem Update auf den neuen Treiber. Ich kenne allerdings nur die Benchmarkszene; im Akkord heute Nacht war keine Zeit, noch andere Gebiete abzuwandern. Das können sicher Radeon-Nutzer sagen. :-)

MfG
Raff
 
Danke für den Test!

Sind die niedrigen P1-FPS bzw. ist die große Diskrepanz zwischen den durchschnittlichen FPS und den P1-FPS bei den GPU-Benchmarks mit Raytracing auf unzureichende CPU-Leistung zurückzuführen? Man könnte das zumindest annehmen, wenn man sich die CPU-Benchmarks anschaut, obwohl ich mir natürlich dessen bewusst bin, dass das zwei unterschiedliche Benchmark-Szenen sind.

Beispielsweise sieht man ja bei der RTX 4090 in Full HD 55 FPS beim P1-Wert und in UHD 48 FPS, also gerade einmal 7 FPS weniger. Mit steigender Auflösung bzw. mit (scheinbar) zunehmendem GPU-Bottleneck scheint der Abstand zwischen Averages und P1-Werten auch durch die Bank weg kleiner zu werden (= smoothere Frametime?)...
 
@PCGH_Raff Ich fragte, weil es im Fazit noch drin steht....daher ;-)
Jetzt nicht mehr (das war noch ein Rest von gestern). :D Wir behalten das Feedback der Spieler im Auge.

Danke für den Test!

Sind die niedrigen P1-FPS bzw. ist die große Diskrepanz zwischen den durchschnittlichen FPS und den P1-FPS bei den GPU-Benchmarks mit Raytracing auf unzureichende CPU-Leistung zurückzuführen? Man könnte das zumindest annehmen, wenn man sich die CPU-Benchmarks anschaut, obwohl ich mir natürlich dessen bewusst bin, dass das zwei unterschiedliche Benchmark-Szenen sind.

Beispielsweise sieht man ja bei der RTX 4090 in Full HD 55 FPS beim P1-Wert und in UHD 48 FPS, also gerade einmal 7 FPS weniger. Mit steigender Auflösung bzw. mit (scheinbar) zunehmendem GPU-Bottleneck scheint der Abstand zwischen Averages und P1-Werten auch durch die Bank weg kleiner zu werden (= smoothere Frametime?)...
Yep, die schnellsten Geforce-Grafikkarten werden beim Raytracing vom Prozessor bzw. Overhead zurückgehalten. Schau dir dazu auch mal die CPU-Zahlen und den Text dazu genauer an. Die Kombination aus Radeon-GPU und reinem Rasterizing erzielt die besten Bildraten.

MfG
Raff
 
Ich verstehe nicht das Nvidia am Treiber-Overhead nicht aktiv was ändert.
Das ist doch kein "neues Problem" und könnte einiges noch rausholen...?

Passt vielleicht nicht ganz dazu aber DLSS 3 soll ja auch noch etwas mit dem Inputlag zu schaffen haben.
Sowas sollte doch für NV wichtig sein, da eben die RTX / DLSS Features mit die Verkaufsargumente sein sollten ?
 
Schade dass es bei der CPU-Auswahl keine zwei Modelle einer Serie gibt, so kann man Kernskalierung nur ein bisschen zwischen 3700x und 5600 raten.
 
Ich arbeite noch an einem Performance-Tweak-Tuning-Video/Artikel. Ist ein bisschen kompliziert und die ganze elendige Patcherei, neue Treiber etc. grätschen immer wieder dazwischen, aber da sollten noch einige Zusatzinformationen abfallen. z.B. was das Streaming bzw. Ruckeln vor Türen betrifft, wo wann welche Last am höchsten ist – und, hoffentlich, wie man das Ganze etwas flüssiger bekommt.
Da kommt also noch was, ist allerdings ganz schön Arbeit – und den regulären Artikel mussten wir ja außerdem erstmal fertig stellen.

Returnal steht btw. außerdem noch an ;)

Gruß,
Phil
 
Passt vielleicht nicht ganz dazu aber DLSS 3 soll ja auch noch etwas mit dem Inputlag zu schaffen haben.
Sowas sollte doch für NV wichtig sein, da eben die RTX / DLSS Features mit die Verkaufsargumente sein sollten ?
Bei DLSS 3 (eigentlich: Frame Generation allein) muss man immer wieder eines betonen: Schaltet man das ein, wird Reflex forciert. Reflex gleicht die Latenz der Frame Generation aus, so gut es geht. Heißt: Mit FG hat man in einigen Fällen die Latenz, welche ohne FG und Reflex auftritt - also auch die einer jeden Radeon.

Schade dass es bei der CPU-Auswahl keine zwei Modelle einer Serie gibt, so kann man Kernskalierung nur ein bisschen zwischen 3700x und 5600 raten.
Wir würden uns freuen, wenn ihr unsere Daten mit euren Systemen anreichern würdet. Einfach nachmachen. =)

-> https://extreme.pcgameshardware.de/...k-hogwarts-legacy.630536/page-3#post-11232949

MfG
Raff
 
Schade dass es bei der CPU-Auswahl keine zwei Modelle einer Serie gibt, so kann man Kernskalierung nur ein bisschen zwischen 3700x und 5600 raten.
Glaub mir, wenn es möglich gewesen wäre, hätte ich 30 Prozessoren gebencht. Aber das alles zwischen der Abgabe auch noch unter den Hut zu bekommen, das geht einfach nicht. Am schlimmsten ist natürlich Denuvo, das war im Original-Text noch etwas auf andere Art formuliert, da hat Raff ordentlich geschrubbt :D
Aber wer es überlesen hat: Das Ding kommt mit Raytracing in den CPU-Index, weil es ein guter CPU-Benchmark ist, der sich leicht reproduzieren lässt und anständige Zahlen ausspuckt.
 
Bei DLSS 3 (eigentlich: Frame Generation allein) muss man immer wieder eines betonen: Schaltet man das ein, wird Reflex forciert. Reflex gleicht die Latenz der Frame Generation aus, so gut es geht. Heißt: Mit FG hat man in einigen Fällen die Latenz, welche ohne FG und Reflex auftritt - also auch die einer jeden Radeon.

Ja also, danke mal.
Ich habe vor längerer Zeit, glaube mit Call of Duty Cold War mit dem DLSS angefangen.

Seit dem (auch von dir) gut belegt wurde, das es optisch gut abliefert und die FPS gut angestiegen sind, bin ich ein Fan dieser Technik.

Mir war halt gerade bei Online-Multiplayer-Titeln wichtig, dass ich keine Lag-Nachteile durch DLSS habe. Nur so wars mir möglich mal high FPS Gaming zu erleben. (240 hz / 240 FPS)
Ja, können und brauchen sind unterschiedliche Dinge.


Gerade bei DLSS 3 ists mir schon klar, dass es einfach was andres ist wie das DLSS 2...
Deshalb sind diese Lag-Dinge bei mir irgendwie im Fokus.

Aber klar, gerade DLSS + Reflex zusammen bringen am meisten....bzw bei DLSS 3 funktionieren sie automatisch zusammen.
 
Zuletzt bearbeitet:
Der ini-Tweak, was die RT-Reflexionen angeht, funktioniert übrigens auch dem ersten großen Update noch bestens. Kostet halt 20 Prozent der Framerate, aber wer ne 3090 oder 4090 hat... :ka:belegt halt auch mehr Speicher ;)

RT-Vergleich.jpg
 
Ich muss mich das Game auch endlich mal holen. Eigentlich das perfekte Spiel, wo man den PC an den TV steckt und mal den Controller wieder raus holt...
 
Ich verstehe nicht das Nvidia am Treiber-Overhead nicht aktiv was ändert.
Das ist doch kein "neues Problem" und könnte einiges noch rausholen...?

Passt vielleicht nicht ganz dazu aber DLSS 3 soll ja auch noch etwas mit dem Inputlag zu schaffen haben.
Sowas sollte doch für NV wichtig sein, da eben die RTX / DLSS Features mit die Verkaufsargumente sein sollten ?

Auch NVidia hat nun mal seine ewigen Treiberbaustellen. Auch wenn das nicht ins Weltbild einiger passt, die sich so was lieber schönreden oder schnell wieder vergessen wollen.

Der ini-Tweak, was die RT-Reflexionen angeht, funktioniert übrigens auch dem ersten großen Update noch bestens. Kostet halt 20 Prozent der Framerate, aber wer ne 3090 oder 4090 hat... :ka:belegt halt auch mehr Speicher ;)

Anhang anzeigen 1417757

Auf meiner 7900XTX bin ich auch mit gehörigen ini-Tweaks unterwegs

r.RayTracing.Reflections.ScreenPercentage=100, r.RayTracing.Reflections.SamplesPerPixel=1 und Hoch/Ultra passen soweit ganz gut in UHD FSR Q.

Die RT-Schatten und RTAO sind aber in meinen Augen derzeit weitgehend sinnbefreite Grafikoptionen. RTAO scheint bsw. in den Innenräumen weiterhin die typischen Screen-Space Probleme zu haben, indem die Schatten an bestimmten Stellen sehr augenfällig verschwinden. Ich sehe da keine vernünftige Verbesserung. RT-Schatten kostet sehr viel, bringt aber auch nur relativ überschaubare Vorteile gegenüber einer (in der ini erhöhten Schattenauflösung) der Rastertech.
 
Der ini-Tweak, was die RT-Reflexionen angeht, funktioniert übrigens auch dem ersten großen Update noch bestens. Kostet halt 20 Prozent der Framerate, aber wer ne 3090 oder 4090 hat... :ka:belegt halt auch mehr Speicher ;)
Danke für den Hinweis. Der Tipp gilt m.E. auch für RDNA 3, sofern man auf RT Schatten und RTAO verzichtet. An den problematischen Orten (z.B. Hogsmeade) hängt man, sobald RT aktiviert ist, ja sowieso eher im CPU Limit.

Ich finde den Trend schade, dass neuere Titel mit Raytracing extrem anspruchsvoll für die CPU werden und selbst die schnellsten Exemplare ohne Frame Generation kaum schnell genug sind. Bleibt zu hoffen, dass AMD mit FSR 3 etwas Vergleichbares auf die Beine stellen kann und dann auch RDNA 2, Turing und Ampere Besitzer hiervon profitieren können.
 
Die RT-Schatten und RTAO sind aber in meinen Augen derzeit weitgehend sinnbefreite Grafikoptionen. RTAO scheint bsw. in den Innenräumen weiterhin die typischen Screen-Space Probleme zu haben, indem die Schatten an bestimmten Stellen sehr augenfällig verschwinden.
Ja, das liegt daran, dass ein Wert von 0.35 vorgesehen ist (r.RayTracing.AmbientOcclusion.Intensity=0.35), erhöht man den auf 1, dann sieht das auch entsprechend aus, kostet aber halt noch mehr Performance.

Original 0.35: https://www.dsogaming.com/wp-content/uploads/2023/02/Hogwarts-Legacy-Default-RT-1.jpg
Tweaked 1: https://www.dsogaming.com/wp-content/uploads/2023/02/Hogwarts-Legacy-Modified-RT-1.jpg

Ich habs deaktiviert, weil die Reflexionen schon extrem viele Fps fressen und ich einfach nicht auf das großartige DLAA verzichten möchte, was das Bild einfach perfekt glättet.
 
@PCGH_Dave
Seit dem gestrigen Patch scheint für RTAO nun auch der Wert 1 Standard zu sein. Bei mir mit einer 7900 XTX für dies aber zu merkwürdigen Bildfehlern an Pflanzen. Also zumindest auf RDNA 3 ist der Leistungsverlust durch RTAO nicht wirklich gerechtfertigt.
 
Zurück