Special Hogwarts Legacy vor Release geprüft: Wie realistisch sind die hohen Systemanforderungen?

Doch, genau so funktioniert das.
Das ist kein Grafikkarten Test im sinne eines GPU-Relase-Tests, sondern ein SpieleTest.
Nein, so funktioniert das nicht. Egal ob Launchreview oder Spieletests, es sollte darum gehen, das Potential der Hardware zu zeigen. Das geht nur, wenn man die schnellste CPU nimmt, um das volle Potential der GPUs zu zeigen.

Um jetzt aber mehr Realismus reinzubringen, kann man zusätzlich noch unterschiedliche CPUs mit der schnellsten GPU testen. Am besten jeweils die Topmodelle von AMD und Nvidia nehmen wegen des Treiberoverheads. Dananch kann man sich alles zusammenkombinieren, was man gerne wissen möchte, also die eigene Config im Grunde. Das wäre professionell.

Aber hingehen und Ryzen 7000 nehmen (als einzige CPU im Test!), wodurch die Topmodelle ausgebremst werden, ist relativ sinnlos. Das ganze dann noch als "je mehr Daten, desto besser" zu verkaufen, ist medial geschickt, aber nicht wirklich professionell.

Wo ich hingegen zustimmen muss, das ist ein guter Punkt, ist, dass man zwischen Launchreview und Spieletest unterscheidet. Man sollte realistische Settings abdecken, Presets, unterschiedliche Upscaler Modi usw. Ob man beim Worst-Case-Ansatz bleibt, was die Szenen betrifft, darüber könnte man sich streiten.

Hier übrigens mal zwei Beispiele, was die CPU sogar bei realistischen Settings ausmachen kann. Es kam eine RTX 4090 zum Einsatz.

1676283889884.png

1676283961091.png
 
Zuletzt bearbeitet von einem Moderator:
Reichen 100 Jahre, für sämtliche Games, in 8K, samt alles auf ultra: no. Man kann allerdings (mit kleineren Abstrichen bei Texturqualität/Schatten/Sichtweite selbst mit dem neuen "Speicherkrüppel" 3080 in 4K noch viel Spaß haben.

Woher ich das weiß? Ich habe eine:P Achja, was nützt mir die dollste Optik, wenn der Inhalt mich nicht fesselt...

Gruß
Dazu kommt auch immer, es muss flüssig bleiben. Mehr Speicher nutzt nichts wenn die Leistung fehlt.
Kann man gegeneinander aufwiegen. Wie viel schlechter sieht Spiel A mit hohen, statt Ultra Texturen aus?
Wie groß ist der Unterschied RT on/off?

Nur ein Beispiel.

Die 3080 hat bisher noch die selbe Zukunftsfähigkeit wie eine 6800XT beispielsweise.

Die Zeit wird zeigen, ob demnächst Spiele auf den Markt kommen, die mit einer 3080 deutlich schlechter aussehen (in Gänze), als mit einer 6800XT.

Bisher ist das nicht der Fall, auch wenn es von einigen Nutzern hier anders herbei gesehnt wird.
 
Dazu kommt auch immer, es muss flüssig bleiben. Mehr Speicher nutzt nichts wenn die Leistung fehlt.
Kann man gegeneinander aufwiegen. Wie viel schlechter sieht Spiel A mit hohen, statt Ultra Texturen aus?
Wie groß ist der Unterschied RT on/off?
Richtig. Und, dem einen reichen ~60Fps/WQHD und hohe Details, beim anderen "müssen" es deren mind. 144 Frames/4K und alles auf ultra sein. Die "Altvorderen" unter uns wissen vielleicht noch, das man früher für ein neues Game nach einem Jahr den Rechner oft quasi neu kaufen durfte. Heute hält Hardware viel länger durch, für die volle Pracht kann man aber nicht verlangen, das die vor 3-4 Jahren gekaufte Hardware alles ewig opulent darstellen kann.

Stellschrauben gibt es ja genug an denen man drehen kann. Manche behaupten gar, man selbst ist die größte Stellschraube;-)

Gruß
 
Zuletzt bearbeitet:
Raytrasing habe ich wieder ausgeschalten. Weil es seit Freitag bei mir so aussieht.
Ich habe zwar 32 GB RAM und 16GB VRAM.
Das Spiel hat bei mir WQHD, alles auf Ultra gestellt, Raytrasing aber abgeschaltet. Solange ich alles in dieser Einstellung lasse, läuft es auch stabil. Schalte ich aber von 60FPS auf 144. Dann kann es sein das es abstürzt. Genau das gleich, wenn ich Raytrasing einschalt. Da wir es noch einige Update brauchen.
.
Mit hohen Anforderungen an die Hardware werden wir in Zukunft mehr rechnen müssen. Das Spiel hat eine großartige Grafik und andere werden es nachmachen. Davon gehe ich aus.


HL.jpg
 
Raytrasing habe ich wieder ausgeschalten. Weil es seit Freitag bei mir so aussieht.
Ich habe zwar 32 GB RAM und 16GB VRAM.
Das Spiel hat bei mir WQHD, alles auf Ultra gestellt, Raytrasing aber abgeschaltet. Solange ich alles in dieser Einstellung lasse, läuft es auch stabil. Schalte ich aber von 60FPS auf 144. Dann kann es sein das es abstürzt. Genau das gleich, wenn ich Raytrasing einschalt. Da wir es noch einige Update brauchen.
.
Mit hohen Anforderungen an die Hardware werden wir in Zukunft mehr rechnen müssen. Das Spiel hat eine großartige Grafik und andere werden es nachmachen. Davon gehe ich aus.


Anhang anzeigen 1417643
Klingt halt eher verbuggt, als das es an den hohen Anforderungen liegt.
 
Dazu kommt auch immer, es muss flüssig bleiben. Mehr Speicher nutzt nichts wenn die Leistung fehlt.
Kann man gegeneinander aufwiegen. Wie viel schlechter sieht Spiel A mit hohen, statt Ultra Texturen aus?
Wie groß ist der Unterschied RT on/off?

Nur ein Beispiel.

Die 3080 hat bisher noch die selbe Zukunftsfähigkeit wie eine 6800XT beispielsweise.

Die Zeit wird zeigen, ob demnächst Spiele auf den Markt kommen, die mit einer 3080 deutlich schlechter aussehen (in Gänze), als mit einer 6800XT.

Bisher ist das nicht der Fall, auch wenn es von einigen Nutzern hier anders herbei gesehnt wird.
Öhöm.
Frag doch mal den Raff, der wird dir die PCGH Print ans Herz legen.
Da stehen dann so ganz dolle Dinge drin, die auch diversen NVidia Fanboys hätten die Augen öffnen können.
Kürzlich gab es noch einen wunderbaren, großen Bericht dazu.
Eine 3070 8GB und 3080 10GB sind auf Kante genäht, Ansage dazu gab es passend zum Testbericht schon vor 2 Jahren.
Da hätte man mal wie in der Schule aufpassen sollen.
Wenn man jetzt nach 2 Jahren die Details reduzieren muss, weil man zu wenig VRAM hat, dann ist das einfach nur peinlich.
Es schadet also nie, sich eine Karte mit mehr VRAM zu kaufen, als man derzeit in Spielen benötigt.
Die Zeit hat in den letzten 30 Jahren immer Recht behalten. Immer. Egal was Leute wie du behaupten.
Das gilt übrigens ebenso auch für Arbeitsspeicher und SSD/HDD's.
Wer da zu sparsam ist, kauft doppelt.
Ich möchte meinen PC jedenfalls nicht absichtlich herunterdrehen müssen, nur weil ich dumme Bottlenecks erzeugt habe, obwohl ich viel Geld ausgegeben habe.
Das mache ich nur aus dem Grund, weil ich absichtlich wenig Geld ausgegeben habe, weil es mir reicht (oder reichen muss).
Ich würde mich aber so richtig in den Hintern beißen, wenn ich vor lauter Gier im letzten Jahr einen vielleicht 4stelligen Betrag ausgegeben hätte, und würde jetzt auf den Boden der Tatsachen heruntergerissen werden.
Abschließend möchte ich sagen, ich will hiermit nicht zum Kauf von AMD Karten anregen, es geht mir nur um die richtige Speichermenge passend zum Preis einer Hardware.
NVidia bietet da auch manchmal die eine oder andere ordentliche Sache an.
Die 4070 Ti ist übrigens auch schon mal keine UHD Karte, da auch nur 12GB.
Bitte beim Kauf dran denken. PCGH hat die schon in WQHD gut voll bekommen. Schon heute. Ja. Heute.
Was ist dann in 2-3 Jahren? Na? Standard.
 
Öhöm.
Frag doch mal den Raff, der wird dir die PCGH Print ans Herz legen.
Da stehen dann so ganz dolle Dinge drin, die auch diversen NVidia Fanboys hätten die Augen öffnen können.
Kürzlich gab es noch einen wunderbaren, großen Bericht dazu.
Eine 3070 8GB und 3080 10GB sind auf Kante genäht, Ansage dazu gab es passend zum Testbericht schon vor 2 Jahren.
Da hätte man mal wie in der Schule aufpassen sollen.
Wenn man jetzt nach 2 Jahren die Details reduzieren muss, weil man zu wenig VRAM hat, dann ist das einfach nur peinlich.
Peinlich ist nur diese selektive Wahrnehmung. Ein Beispiel, in den letzten zwei Jahren gab es deutlich mehr Spiele, die mit den auf Kante genähten grünen Karten, deutlich besser liefen, durch den RT Vorteil, als Spiele die mit den 8GB bzw. 10GB nicht aus kamen. Da sind wir auch direkt am richtigen Punkt angekommen.

Höchste Texturen und zweithöchste ist das worüber wir hier aktuell reden. Nicht max und min.

Nur zu gern wird von Kleingeistigen Idioten hier in extremen gesprochen. Genau wie bei Hogwarts.

Es ist nicht korrekt, das Hogwarts L nicht mit 8GB läuft, auch nicht das es nur schlecht läuft. Es hängt an den Einstellungen und siehe da.

PCGH sprach von für High Settings perse, in 1080p wo Phil im Video sagte das 8GB reichen. Was eigentlich auch schon durch ein paar Benchs gezeigt wurde.
Es schadet also nie, sich eine Karte mit mehr VRAM zu kaufen, als man derzeit in Spielen benötigt.
Die Zeit hat in den letzten 30 Jahren immer Recht behalten. Immer. Egal was Leute wie du behaupten.
Das gilt übrigens ebenso auch für Arbeitsspeicher und SSD/HDD's.
Wer da zu sparsam ist, kauft doppelt.

Ich möchte meinen PC jedenfalls nicht absichtlich herunterdrehen müssen, nur weil ich dumme Bottlenecks erzeugt habe, obwohl ich viel Geld ausgegeben habe.
Musstest du doch schon wenn du AMD gekauft hast, in den zwei Jahren (RT) Oder fällt das aus deiner Wertung raus, weil es dir nicht zusagt?
Tellerrand und co lassen grüßen.

Ich kann nicht verstehen, wie man zum Kaufzeitpunkt in kauf nimmt weniger Details aktiveren zu können (RT) nur um in 1/10 der Fälle einen Speichervorteil zu haben, dafür aber in 3/10 der Fälle unterirdische RT Leistung.

Blickwinkel usw., verstehst du schon noch.
Das mache ich nur aus dem Grund, weil ich absichtlich wenig Geld ausgegeben habe, weil es mir reicht (oder reichen muss).
Ich würde mich aber so richtig in den Hintern beißen, wenn ich vor lauter Gier im letzten Jahr einen vielleicht 4stelligen Betrag ausgegeben hätte, und würde jetzt auf den Boden der Tatsachen heruntergerissen werden.
Wovon redest du bloß, da geschehen lustige Dinge in deinem Hirn. Die RT Schwache Konkurrenz im gleichen Preissegment, war nie wirklich günstiger.
Abschließend möchte ich sagen, ich will hiermit nicht zum Kauf von AMD Karten anregen, es geht mir nur um die richtige Speichermenge passend zum Preis einer Hardware.
NVidia bietet da auch manchmal die eine oder andere ordentliche Sache an.
Die 4070 Ti ist übrigens auch schon mal keine UHD Karte, da auch nur 12GB.
Wer behauptet das denn, das es so sein muss.
Bitte beim Kauf dran denken. PCGH hat die schon in WQHD gut voll bekommen. Schon heute. Ja. Heute.
Was ist dann in 2-3 Jahren? Na? Standard.
Ist aktuell aber kein schlechterer Kauf, als eine 7900XT, wenn man über alle Eigenschaften wertet.


Allgemein noch:

Öhöm, wird so geschrieben?

In der Schule aufpassen, so so... Vielleicht mal selber denken und verstehen, was geschrieben wird.
Wenn das mit dem Verstehen noch nicht klappt, dann kann man mit dem Versuch des selber Denkens
anfangen.


Nachdem ich mich über diese Art und Weise jetzt etwas aufgeregt habe nochmal zur grundsätzlich Situation am Markt.

Natürlich waren 3070 und 3080 auf Kante genäht, dennoch aus meiner Sicht der bessere Kauf bisher! Wenn jetzt sich abzeichnet, das alle Spiele (nicht einzelne) jetzt nur noch mit optisch wirklich, als schlechter auf den ersten Blick erkennbaren Texturen laufen bei 8/10GB oder auch 12GB, ändert das immer noch nicht alles von schwarz, auf weiß.

Denn selbst dann steht noch immer, Texturen runter Schrauben gegenüber RT Details reduzieren / deaktivieren. Oder gar VR Performance.

Wer ist denn der Einzelne von uns, der für andere entscheidet was besser ist. Ich persönlich würde bisher immer lieber nur zweihöchste, oder mittlere Texturen bevorzugen, wenn ich dafür RT nutzen kann.


Das ist aber Ansichtssache / Geschmackssache.

Wer hat sich denn eine 8/10/12/16 GB Karte gekauft und behauptet das man über Jahre hinweg damit alles immer nur mit maximalen Einstellungen spielen kann.

Weiter darf man auch nicht aus den Augen verlieren, was wer für Szenarien hat.
Beispiel: Bei mir ist es zum Zocken von Shootern 1080p und ansonsten mittlerweile VR (zu 90% ein Spiel, bei dem Nvidia einfach im Vorteil ist).

Und du möchtest jetzt für mich rückwirkend entscheiden, das zum Beispiel eine 6700XT für zum Kaufzeitpunkt 50€ mehr für mich der bessere Kauf gewesen wäre. Da hätte ich mich in ein, zwei Spielen schon einschränken müssen und in einem das besonders wichtig bei mir ist, sogar deutlich einschränken.

Das ist richtig schlau.

Ich sage nicht absolut, der Kauf von Karte A, ist besser als Karte B... Das ist individuell.


PS: Leute wie ich, sind offen für verschiedene Blickwinkel und damit immer Leuten wie dir (anscheinend) weit voraus.

Ehrlich, du könntest an deiner Kommunikation arbeiten.
 
Meine Gühte , die Texturequalität ist ja unterirdisch!
Liegt das an der Videoqualität?

Stellt euch vor, die kommende Texture Mod knallt die Speicherlast gleich auf min. 16GB hoch bei 1440p.
Das haben die gleich gelassen , sonst werden sie nicht mehr von NVidea supportet.
 
Meine Gühte , die Texturequalität ist ja unterirdisch!
Liegt das an der Videoqualität?

Stellt euch vor, die kommende Texture Mod knallt die Speicherlast gleich auf min. 16GB hoch bei 1440p.
Das haben die gleich gelassen , sonst werden sie nicht mehr von NVidea supportet.
Also ich finde die Qualität sehr gut.
Bedenke die Texturen können stark variieren, je nachdem welche Spiele Settings, Grafikkarteneinstellung, Monitorgröße und Auflösung du hast.

Ich sitze zum Beispiel ca. 3-3,5 meter vom 55 Zoll TV entfernt, da sieht dann auch 1440p auf hohen Settings hervorragend aus. Schaue ich hingegen bei meinem Freund, der ca. 1m vom Monitor entfernt sitzt, schaut es deutlich pixeliger aus.

Auch eine korrekt eingestellte Bildschirmhelligkeit des Monitor kann zu einem besseren Bild beitragen. In der Regel wird meist eine viel zu hohe Helligkeit gewählt, wodurch schlechte Texturen oder flimmern noch eher auffallen.
 
Das ist eben so eine Sache mit der "genügenden RT Leistung".
Es gibt sie nicht , stand heute, ausserhalb der DRITTEN!!! Generation von RTX(40x0).
...Bald gibts auch da Flaschen wie eine 4060 usw.

Darum war es bis vor Kurzem völlig sinnlos diese als Entscheidungsmerkmal zu nehmen um einen "Zukunftsentscheid" zu treffen.

Einfaches Beispiel:
Als die beliebteste Karte und wohl auch meist verkaufte Performance RTX GPU würde ich die RTX3080 nennen. CP2077 ist mit Haufen Kompromissen mit RT spielbar. Das ist das Ende der Fanenstange.
ps: kaufe ich wahrscheinlich noch second hand, je nach Preis.

Ihre RT Leistung ist am Ende nicht so wichtig und so war es auch bei den vorherigen Spitzenkarten, obwohl immer damit angegeben wurde.
Es gab genau 3-4 Spiele da war es ansehnlich und NUR mit DLSS spielbar. Heisst schon in den next gen Games ist es absolut unbrauchbar und das ist wirklich relevant. Hogwarts verdeutlicht das noch einmal und sieht nicht einmal gut aus.

Es ist verstärkt, so wichtig wie bei den noch tieferen Modellen, bei denen man auch immer von mehr Leistung in RT sprach, also 28fps anstatt 18fps bei einem AMD Model.
Aber ohne RT geschätzt, NV 45fps vs AMD 60fps

Verstehst du meine Sichtweise, was hat in den nächsten 3Jahren am meisten Relevants? Denke die Antwort ist nicht für alle die gleiche und Zeitpunkt abhängig.
Ich sitze zum Beispiel ca. 3-3,5 meter vom 55 Zoll TV entfernt, da sieht dann auch 1440p auf hohen Settings hervorragend aus. Schaue ich hingegen bei meinem Freund, der ca. 1m vom Monitor entfernt sitzt, schaut es deutlich pixeliger aus.

Auch eine korrekt eingestellte Bildschirmhelligkeit des Monitor kann zu einem besseren Bild beitragen. In der Regel wird meist eine viel zu hohe Helligkeit gewählt, wodurch schlechte Texturen oder flimmern noch eher auffallen.
...kann ein Lied davon singen.
Versuche gerade das Optimum für meinen neuen Samsung OLED G8 zu finden.

Soviel potential, so schlecht kalibriert!
 
...kann ein Lied davon singen.
Versuche gerade das Optimum für meinen neuen Samsung OLED G8 zu finden.

Soviel potential, so schlecht kalibriert!
Aber mit Oled hast du ne gute Entscheidung getroffen, ich möchte nie wieder ohne Spielen, außer es gibt irgendwann etwas besseres.
Hogwarts und generell Spiele sehen gerade mit HDR auf nem Oled so toll aus.

Vorallem HDR, für mein Empfinden wirken Games atmosphärisch mit HDR soviel besser. Da stelle ich lieber Details runter, aber auf HDR möchte ich nicht mehr verzichten müssen. Wer einmal mit gespielt, möchte nicht mehr ohne, vorallem auf einem Oled.

Ich drück dir die Daumen, dass du deinem Monitor dahingehend noch zufriedenstellend eingestellt bekommst, und für dich ein optimales Bild erzielst ?
 
Aber mit Oled hast du ne gute Entscheidung getroffen, ich möchte nie wieder ohne Spielen, außer es gibt irgendwann etwas besseres.
Hogwarts und generell Spiele sehen gerade mit HDR auf nem Oled so toll aus.

Vorallem HDR, für mein Empfinden wirken Games atmosphärisch mit HDR soviel besser. Da stelle ich lieber Details runter, aber auf HDR möchte ich nicht mehr verzichten müssen. Wer einmal mit gespielt, möchte nicht mehr ohne, vorallem auf einem Oled.

Ich drück dir die Daumen, dass du deinem Monitor dahingehend noch zufriedenstellend eingestellt bekommst, und für dich ein optimales Bild erzielst ?
HDR erzeugt jedoch auch einen gestiegen VRam Bedarf, das vergessen auch viele. In den Benchmarks der einschlägigen Websites wird es nie verwendet.
 
HDR erzeugt jedoch auch einen gestiegen VRam Bedarf, das vergessen auch viele. In den Benchmarks der einschlägigen Websites wird es nie verwendet.
HDR kommt eigentlich erst beim Tonemapping dazu bzw. erst dort wird die auszugebene Farbauflösung berücksichtigt. Vorher wird eh deutlich höher aufgelöst gerechnet. Also warum da viel VRAM Verbrauch bei dazu kommen sollte ist mir schleierhaft.
 
HDR kommt eigentlich erst beim Tonemapping dazu bzw. erst dort wird die auszugebene Farbauflösung berücksichtigt. Vorher wird eh deutlich höher aufgelöst gerechnet. Also warum da viel VRAM Verbrauch bei dazu kommen sollte ist mir schleierhaft.
Weil die Speichertricks der Hersteller genau dadurch dann nicht mehr greifen. Nicht weil die eigentliche Speichermenge deutlich steigen würde.
 
@Gurdi & @Olstyle

Also Leistungsunterschiede habe ich bei aktiven und deaktiviertem HDR bisher noch nie bemerkt, vermutlich wird die Grafikkarte da sicherlich etwas machen um die Bildinformation zu verarbeiten, aber hätte jetzt eher so auf einen nicht merklichen Prozentsatz getippt. Kenne mich dafür aber auch nicht gut genug mit HDR aus, um das genauer zu wissen.
 
„Etwas weniger schön: Hogwarts Legacy läuft in einem Borderless-Mode, der mit der Desktop-Auflösung skaliert. Um die Auflösung zu reduzieren, müssen Sie entweder Ihre Desktop-Auflösung herabsetzen oder die Renderskalierung (bzw. ein Upsampling-Verfahren) nutzen.“

Kann man denn eine abweichende interne Renderauflösung festlegen? Oder muss man dann zwangsweise FSR benutzen?
Ja, aber dann bekommst du das TAAU von der Unreal Engine (ist nicht schlecht, aber halt trotzdem Upsampling – und teurer als FSR 1.0 oder NIS). Wenn man kein Upsampling haben will, muss man die Desktop-Auflösung auf die entsprechende Auflösung setzen (spart Speicher!)

Gruß,
Phil
 
@Gurdi & @Olstyle

Also Leistungsunterschiede habe ich bei aktiven und deaktiviertem HDR bisher noch nie bemerkt, vermutlich wird die Grafikkarte da sicherlich etwas machen um die Bildinformation zu verarbeiten, aber hätte jetzt eher so auf einen nicht merklichen Prozentsatz getippt. Kenne mich dafür aber auch nicht gut genug mit HDR aus, um das genauer zu wissen.
Moderne Karten verlieren lediglich einige wenige Prozent. Im Schnitt so 1-3%, also kaum der Rede Wert.
 
Zurück