Special HdR: Gollum im Tech-Check: Der CPU-Fresser ruckelt auch auf High-End-Maschinen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu HdR: Gollum im Tech-Check: Der CPU-Fresser ruckelt auch auf High-End-Maschinen

Heute erscheint das lang erwartete Action-Adventure HdR: Gollum aus dem Hause Daedalic Entertainment. PCGH hat sich den Titel aus technischer Sicht genauer angeschaut und klärt primär die Fragen, wie viel Speicher das Spiel tatsächlich benötigt. Dazu gesellen sich Grafikvergleiche und Benchmarks.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: HdR: Gollum im Tech-Check: Der CPU-Fresser ruckelt auch auf High-End-Maschinen
 
Das nächste "AAA" Spiel, was man wohl viel besser nach einigen Patches und für ein 10er in 1-2 Jahren erst spielt. Schade.
Das ist kein AAA Spiel, maximal AA.
Wer hier technisch was God of War mäßiges erwartet, hat völlig falsche Vorstellungen.
Entschuldigt natürlich nicht die Mängel, aber man sollte doch bedenken , dass das ein eher kleines Projekt ist.
 
Vernichtend
mal sehen wann man das strea ming und die textureinstellung fixen wird
Das kaum bis kein dxr Reflexionen Spieglungen gibt ist sehr schade.
 
und der nächste komplett verhunzte PC-Port...und schon wieder das gleiche Problem mit dem überlaufenden VRAM-Speicher und der miserablen Performance sogar auf aktuellen Highend-GPUs.

12 GB VRAM zu belegen in Full-HD bei so einer mittelmäßigen Last-Gen Grafik die sogar auf PS4 läuft ist echt ein totaler Irrsinn.

dieses Game zeigt übrigens damit mehr als deutlich und exemplarisch wie absurd die "8GB sind zuwenig"-Diskussionen der letzten Zeit sind, weil man hier wirklich nicht argumentieren kann es handle sich um ein besonders aufwendiges next-Gen-Game...es wird sogar für die Switch erscheinen ?

meine persönliche Vermutung warum sich das in letzter Zeit so häuft ist, dass das Problem an der neuen Konsolengeneration PS5/XBox Series liegt, denn diese Port-Probleme entstehen erst seit Games vermehrt dafür erscheinen...aus irgendeinem Grund verursachen wohl direkte, nicht optimierte Ports dieser Games am PC ein überlaufen des VRAMs...vielleicht liegt es am integrierten SoC-Design von AMD in PS5/Xbox Series...hmmmmmmm

außerdem zeigt das Alles nur zu gut, mit wie wenig Aufwand die PC-Ports heutzutage kommen, offenbar macht man sich nichtmal die Mühe Basic-Tests durchzuführen ?
 
Zuletzt bearbeitet:
Die ue4 hat einen Intrigierte api compiler da macht der Entwickler nix außer features einstellen und auf Kompilieren drücken diese richtet sich an die vorgaben die man festlegt.
Und das geht in den api dx11 und dx12 wo aber man manuell paar dinge anpassen muss.
Die Probleme bei dem port sind nicht beim dx11 sondern beim dx12 und dem recht schlampigen dxr implementierung und man hat sich gar nicht um die Speicherverwaltung gekümmert
Den gerade das muss man selber machen das übernimmt die api nicht
Das spiel braucht zwingend paar updates um das streaming anzupassen dann wird es keinen Aufschrei mehr geben zeitgleich wird man schlicht höhere Einstellungen sperren wenn paar vorgaben nicht erfüllt sind.
primär vram


Es gab wie erwähnt paar ue4 spiel die letzten Monate und alle hatten Probleme mit dem streaming auf zu geringen vram gpu.
das sagt nur ens aus der fokus beid er entwicklung wird zunehmend die ps5 xsx
Der PC bekommt dann eben vorgaben was ma min haben muss
 
Danke für den Test!

Das Spiel sieht aus als könnte es reibungslos auf einem 2600K und einer GTX 970 laufen. Was ist hier wohl in der Entwicklung schief gelaufen, dass selbst ein aktueller Highend PC nicht wirklich ausreicht? Man konnte während der Entwicklung doch unmöglich die Hardwarebasis von 2028 im Kopf gehabt haben..
 
Sprich man hier im Artikel wirklich über die SpeicherBELEGUNG auf einer 3090 und nicht über den benutzten VRAM. Das ein Spiel bei 24 verfügbaren GB VRam bis zu 17 belegt sagt nichts, dazu wie viel VRam für einen guten Lauf nötig sind.

Dazu sieht es auch noch nicht so modern aus.
 
Mal abgesehen von der Technik, ich kann nicht nachvollziehen warum viele Leute Spass dran haben sollten Gollum zu spielen.

Ist mal etwas anders als den "Helden" zu spielen? Ich finde grundsätzlich die Idee gut und man kann dieser Figur auch viel Profil geben. Ich denke nur, dass man es eben nicht geschafft hat. Ein Schleichspiel mit Rätseln sagt mir grundsätzlich zu.
 
Ich habe gerade noch ein paar Fehlerkorrekturen eingeschoben und einen Link zu den Kollegen der Games eingefügt, die in Kapitel 5 stecken blieben, wegen eines Game-Breaking-Bugs. Die sprechen sogar eine Kaufwarnung aus. So weit haben wir gar nicht gespielt, ich kann also nicht sagen, ob das auch auf dem PC auftritt.
 
Die ue4 hat einen Intrigierte api compiler da macht der Entwickler nix außer features einstellen und auf Kompilieren drücken diese richtet sich an die vorgaben die man festlegt.
Und das geht in den api dx11 und dx12 wo aber man manuell paar dinge anpassen muss.
Die Probleme bei dem port sind nicht beim dx11 sondern beim dx12 und dem recht schlampigen dxr implementierung und man hat sich gar nicht um die Speicherverwaltung gekümmert
Den gerade das muss man selber machen das übernimmt die api nicht
Das spiel braucht zwingend paar updates um das streaming anzupassen dann wird es keinen Aufschrei mehr geben zeitgleich wird man schlicht höhere Einstellungen sperren wenn paar vorgaben nicht erfüllt sind.
primär vram


Es gab wie erwähnt paar ue4 spiel die letzten Monate und alle hatten Probleme mit dem streaming auf zu geringen vram gpu.
das sagt nur ens aus der fokus beid er entwicklung wird zunehmend die ps5 xsx
Der PC bekommt dann eben vorgaben was ma min haben muss

PS5/XBox Series X haben beide nur 16GB RAM insgesamt die sich CPU und GPU Einheit teilen müssen - die Testsystem hier haben 32GB Systemram und 8GB VRAM - also insgesamt 40GB Ram für beide - das hier was nicht stimmen kann an der Speicherverwaltung ist offensichtlich.

Ich nehme mal an auf den Konsolen funktioniert die Speicherverwaltung automatisiert, weil ohnehin nur ein (sehr geringer) Ram für den gesamten SoC zur Verfügung steht, man muss also nur schauen, dass dieser ausreichend genützt wird. Für mich wirkt das so als würden die Entwickler bei diesen PC-Ports einfach die Speicherverwaltung aus Faulheit oder Zeitmangel nicht oder nur extrem schlecht optimieren. Daraus jetzt abzuleiten, dass man in Zukunft bei jeder GPu 16GB Vram braucht ist einfach so absurd...ich kann nur mehr lachen.?
 
Die Gamestar schreibt übrigens das hier:
1685005714778.png

Quelle

Da ist wohl, wieder mal ^^, der Speicher übergelaufen. Sie sind grundsätzlich der gleichen Meinung wie wir.
 
Und wieder ein UE4 Spiel, dass High End CPUs zum Frühstück frisst.
Ich hoffe, dass FF7 Rebirth mit der UE5 programmiert wird. Bis das für den PC raus kommt, gehen zwar noch ein paar Jahre ins Land, aber für die PS5 erwarte ich den Release im Februar nächsten Jahres.
 
War fast schon zu erwarten, nach den ersten Berichten.
Aber dass es so hart kommt hätte ich nicht gedacht.

Es ist erschreckend, dass sich Entwickler nicht mehr die Zeit nehmen und das Game optimieren. Es wird einfach der Upscaling Code für DLSS/FSR am Ende drübergebügelt und man kann sich dann entspannt zurücklehnen. Der wirds schon richten.
Aber net mal das bekommen sie hin.
Und durch DLSS/FSR werden die Entwickler zu solchem Schludern ermutigt. Unfassbar. Sowas gehört abgestraft.

Aber NV schwingt weiter hart die DLSS und FG Keule.
Wir sehen ja die Ergebnisse in den letzten Spiele Releases.....
 
UE4, schlampig programmiert kommt sowas bei rum und um so mehr Dinge im Bild dazu kommen umso schlimmer wirds.
Das war und ist in ARK bis heute so, nur nicht mehr so schlimm.
Umso größer die Base ware, desto schlimmer das Streaming.
Die UE4 neigt sehr zur verschwendung von Ressourcen und gönnt sich immer mehr bis der Speicher alle.
Ich vermute das selbe wie in ARK, der berechnet alles voll im Abschnitt mit, auch wenns im nicht sichtbaren bereich liegt!
Diese wurde in ARK gepatcht was zumindest etwas Besserung brachte.
Die UE4 gehört langsam in Rente auch wenns Spiele gibt welche das besser können als Gollum und ARK.
 
Da hat sich also genau das bestätigt was andere und meine Wenigkeit hier schon bei der Bekanntgabe der Systemanforderungen geahnt/befürchtet haben - das ist scheinbar nahezu gar nicht ordentlich optimiert.

Naja, aber auf jeden Fall vielen Dank für den Test!
 
Zurück