News Hogwarts Legacy: VRAM-Empfehlung, Mittelklasse-PC, Fps optimieren und mehr im Video

Hi,

Danke erst einmal für das Feedback.
Habe schon gedacht, das es zu hart/harsch war.
Das Video ist halt im Grunde ein Ersteindruck - da ist zu dem Zeitpunkt noch nicht viel Testaufwand reingeflossen - daher ist es auch ein wenig schwammig. Mal abgesehen davon, dass das nicht geskriptet war und wir uns nur davorgesetzt haben und über unsere Beobachtungen gesprochen haben. Ein paar Details wusste der eine oder andere von uns natürlich vorher schon - ich z.B., dass das Spiel mit einer RX 570/8G mit Ach und Krach mit den Details auch "Hoch" spielbar ist, Raff z.B. wie das Spiel mit Intel Arc-GPUs läuft. Aber das eine wusste der andere halt nicht, daher mussten wir da quasi auch live unsere Erfahrungen austauschen – was vielleicht ein wenig durcheinander rüberkommt. Wir sammeln immer noch Daten und Erfahrungen.

Was hat aber "mit ach und krach", dann aber auf hoch spielbar miteinander zu tun. Das Spiel satrtet und lässt sich wunderbar auch mit 8GB spielen. Nur eben in 1080p vielleicht noch in hoch, aber danach sowieso nicht.
Hier wäre auch interessant ob es einen Unterschied zwischen einer 6650XT und einer 3070 im Verhalten gibt.
"Das Spiel startet auch mit 8 GiByte Hauptspeicher - wir würden aber DRINGEND(!) mindestens 16 GiByte empfehlen" - das ist eine objektive Einschätzung, die auf Testdaten aufbaut. Und eine klare Aussage: "mindestens 16 GiByte Hauptspeicher"

"Das Spiel läuft auch mit 8 GiByte Grafikspeicher - besser wären aber 12" - das ist auch eine objektive Aussage, die auf Messdaten beruht. Die kann ich sogar generell für aktuelle und kommende Spiele schon für Full HD geben. (siehe verlinkter VRAM-Artikel unten, das haben wir breit getestet)
Das gilt nicht allgemein, sondern nur für high. Ich konnte in letzter Zeit öfter feststellen, das im Spiel ohne es nachher zu vergrößern, die Unterschiede zwischen High und Medium, oder zwischen Ultra und High nicht wirklich gut erkennbar sind.
Den Anspruch von aktuellen Spielen an den Grafikspeicher habe ich tatsächlich schon VOR Forspoken und Hogwarts getestet. Methodisch und mit Messungen belegt. In der PCGH-Ausgabe 03/2023 oder alternativ hier als Plus-Artikel. Da sind eine Menge Messungen von einer ganzen Reihe Spiele, Auflösungen und Settings drin. Wir sind dem also tatsächlich schon zuvor gekommen - das ganze zum Hauptspeicher kommt noch, der Planung nach in der 05/2023.
Gut das du es erwähnst, die wollte ich mir noch holen.
"Eigene Sichtweise" ist generell so eine Sache. Wir erzählen ja nicht einfach etwas was uns auf der Seele liegt, sondern stützen uns da bei unseren Aussagen schon objektiv auf Daten - die sind zu dem Zeitpunkt halt noch dünn und nur begrenzt belastbar. Mehr belastbarkeit erfordert mehr Testen, Recherche und Arbeit und damit Zeit. "eigene Sichtweise" trifft zu, wenn einer den anderen fragt: "Was hältst du von der Grafik?", wenn einer von uns Redakteuren explizit einen Kommentar schreibt (das ist eine journalistische Form, die ausdrücklich die Meinung des Autors enthält), oder seine Meinung zur Woche kundtut.
Es ging an der Stelle eher darum, was auch schon weiter oben steht. Das 8GB in 1080p knapp sind, bezieht sich zum Beispiel eher auf high Settings, als auf Spielbar, oder nicht. Eine absolute Aussage, 8GB sind knapp sind für mich in dem Kontext nicht richtig, ohne weitere Einschränkung auf zum Beispiel High Settings.
Im Video stützen wir uns auf objektive Beobachtungen, die sind aber halt mangels vorangehender Testzeit noch relativ dünn (der Patch war zu dem Zeitpunkt außerdem gerade erst erschienen – und wir hatten noch wenig Ahnung von dessen Effekt). Aber der Bedarf nach einem Video mit zumindest etwas technischen Informationen war hoch, die Leute haben nachgefragt, kein Video zu dem Zeitpunkt also auch keine Lösung.
Sollte bitte auch kein Angriff sein, sorry. Das Video ließ mich halt irgendwo zwischen den Stühlen zurück.
Bezüglich Speicher-Tuning-Vergleichsmessungen mit Vergleichshots:
Das alles gesondert in drei Auflösungen durchzugehen, ist ein noch mal deutlich umfangreicheres Vorhaben, als das gesamte Spiel zu benchen. Vor allem unterscheidet sich das auch noch von Grafikkarte zu Grafikkarte.
Alle Settings braucht es dafür nicht. Auch nicht alle Karten.
Aber für je eine AMD Karte und eine Nvidia Karte mit 8GB findet sich vielleicht Zeit, wenigstens zu schauen, wie sich die Speicherbelegung bei den Texturvoreinstellung low, medium, high und ultra verhalten (Nicht Belegung sondern Usage).
Aber ich hab mir schon so etwas in die Richtung überlegt. Und wir haben, dank dem späten, offiziellen Release sogar etwas mehr Zeit als regulär, ich obendrein ein wenig Luft bei Print (nicht vergessen, wir schreiben auch noch ein Heft, da sitzt z.B. Raff aktuell dran, der kann also nicht permanent Zeit mit Hogwarts verbringen, selbst wenn er wollte).
Das wäre sehr informativ und ich denke, das geht vielen so. Gibt halt nicht nur die Nutzer von RX7900 und RTX4000. Gibt auch genügend die 8GB haben und für die ist das sicher interessant. Für alle anderen auch, weil hier oft ein Glaubenskrieg vom Zaun gebrochen wird.
Ich schau mal, was ich machen kann. Einen kompletten Tuning-Artikel, alle Schalter samt Vergleichsbildern auf zig Konfigurationen zu testen etc. schaffe ich sicher eher nicht, das würde vielleicht eine knappe Woche Arbeitszeit vereinnahmen, aber ich kann wahrscheinlich ein paar Stunden investieren. Und wahrscheinlich ein paar Tipps geben, was die sinnvollsten Einstellungen zum Speichersparen sind.
Wie zuvor
Was ich nicht machen kann, ist zu wenig Speicher auf einer Grafikkarte beheben. Und die Anforderungen des Spiels sind realistisch. Es ist außerdem nicht das einzige Spiel, bei dem bei vielen Grafikkarten der Speicher eng wird, nur eins, wo es am deutlichsten ist. Die Entwicklung ist aber recht eindeutig zu erkennen - zum Beispiel in unserem Artikel zum Thema ;)
Sollst du doch gar nicht. Wenn man aber sagt, 8GB sind zu wenig, müssem 8GB auch zu wenig sein und nicht nur bei High Settings.

Das der Speicherbedarf steigt ist klar und auch richtig und wichtig. Wir wollen ja alle mehr Optik! Das hat nichts mit meiner Anmerkung zu tun. Ich bin dafür, wenn die Optik passt darf auch der Anspruch an die Hardware gerne steigen. Sind zwei völlig verschiedene Themen.

Danke für die Antwort und ich hoffe ich kam nicht zu harsch rüber.

Beste Grüße
 
Danke für die Antwort und ich hoffe ich kam nicht zu harsch rüber.

Beste Grüße
Nein, schon gut - ich hatte eher die Befürchtung, mein Post klänge etwas arg passiv-aggressiv. Das wollte ich nämlich eigentlich nach Möglichkeit vermeiden^^

Ich mache, was ich kann. Erst einmal muss ich aber den regulären Artikel schreiben, ich kann ja nicht NUR über den Speicher berichten. ;) Aber ich lege definitiv einen Extra-Fokus drauf, ist ja ein merklich gewichtiger Punkt bei u.a. diesem Spiel.

Und zur Not kann ich immer noch speichertesten, wenn Raff und Dave Grafikkarten und CPUs in die Mangel nehmen. Ich nehm mir mal ein paar der am ehesten speichergefährdeten Mittelklasse-GPUs vor (die RTX 3060 Ti oder RTX 3070 vielleicht und maybe RX 6600 XT oder so...) und werd für die mal ein bisschen tweaken, die gleichen Tweaks funktionieren dann tendenziell ja auch mit anderen Karten oder bei höherer Auflösung, wenn vielleicht auch nicht genau in dem gleichen Umfang.

Gruß,
Phil
 
Wie einfach Alle Magazine nicht auf die finale Version! von morgen warten wollen, bevor sie Tests etc veröffentlichen…

WTF?
Die Deluxe ist die finale Version.
Es ist immer nur die Rede von GPU, VRAM und RAM. ABer welche CPU braucht man wirklich ? Bei vielen Youtube Videos scheint die CPU Auslastung, je nach verwendeter GPU nicht so hoch zu sein. Reicht mein Ryzen 5 2600 für FHD noch ?
Nein, das Spiel ist aktuell im CPU Limit und das selbst bei 4K. Gibt genug Videos dazu im Netz.
Bei Karten von Nvidia ist das CPU Limit ecklig, die AMD Karten stecken das besser weg.

Dazu kommt der hohe VRAM-Verbrauch
 
Die Deluxe ist die finale Version.

Nein, das Spiel ist aktuell im CPU Limit und das selbst bei 4K. Gibt genug Videos dazu im Netz.
Bei Karten von Nvidia ist das CPU Limit ecklig, die AMD Karten stecken das besser weg.

Dazu kommt der hohe VRAM-Verbrauch
Hm... ich möchte in FHD mit meiner RX 6600 XT spielen. In diesem Video wird es mit einer GTX 1060 GB getestet.
Natürlich ist der Ryzen 7 7700X etwas überdimensioniert für die 1060, aber nur um die 10% ausgelastet. Da müsste der 2600er doch locker reichen. FHD hoch müsste drin sein.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Hm... ich möchte in FHD mit meiner RX 6600 XT spielen. In diesem Video wird es mit einer GTX 1060 GB getestet.
Natürlich ist der Ryzen 7 7700X etwas überdimensioniert für die 1060, aber nur um die 10% ausgelastet. Da müsste der 2600er doch locker reichen. FHD hoch müsste drin sein.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Es läuft zumindest okay mit einer Arc 750 in "4K" (mit kräftiger XeSS-Upsampling-Unterstützung), ohne RT und auf "Hoch". Sollte demnach gut möglich sein.

Wirklich schwierig wird es wahrscheinlich erst bei älteren Grafikkarten und 4 und 6 GiByte VRAM. Das geht wahrscheinlich sogar auch noch. Das Spiel läuft auch noch auf Last-Gen-Konsolen (oder soll es jedenfalls.)

Eine der größten Stärken des Spiels ist allerdings die Präsentation. Ob man die volle Pracht braucht, ist wahrscheinlich debattierbar. Ob man da größtmöglichen Verzicht üben möchte, vielleicht nicht so sehr.

Gruß,
Phil
 
Na bei den Antworten gehe ich fast davon aus, dass mein genannter Laptop eher Schwierigkeiten haben dürfte, da die GraKa ja relativ wenig Speicher hat und dazu ne mobile ist.
Also doch PS5
 
Zurück