News HDR: Gollum - Systemanforderungen setzen für 4K eine RTX 4080 mit DLSS Performance voraus

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu HDR: Gollum - Systemanforderungen setzen für 4K eine RTX 4080 mit DLSS Performance voraus

Ab dem 25. Mai können Spieler mit der in sich tief zerrissenen Kreatur Gollum durch Mittelerde und dessen dunkelste Region Mordor schleichen, jetzt wurden die Systemanforderungen noch einmal überarbeitet und teils deutlich nach oben korrigiert. Spieler, die maximales Raytracing in 4K bevorzugen, benötigen ein Geforce RTX 4080 + DLSS.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: HDR: Gollum - Systemanforderungen setzen für 4K eine RTX 4080 mit DLSS Performance voraus
 
Ooooookay. Jetzt ist man zwar von den 32 GiB RAM weg, hat aber völlig abgehobene GPU-Anforderungen und eine AMD-Empfehlung bei den GPUs sparen sie sich einfach weg.

Da ist ja das einzig Positive, dass die CPU-Anforderungen sehr moderat ausfallen.

Naja, ich bleibe dabei, da wird die Optimierung direkt aus der Hölle kommen. :ugly:
 
"...lesen sich speziell die empfohlenen Hardwarespezifikationen wie von einem kommenden AAA-Spiel, welches Der Herr der Ringe: Gollum aber nun einmal bei Weitem nicht ist."

Ob jetzt ein AAA Titel (wie ist das eigentlich definiert?) oder nur AA, die Unreal Engine mit ordentlicher Grafik befeuert interessiert ja die Hardware nicht. High-End Grafik mit Raytracing kostet halt Leistung.
 
Warum machen alle immer 21:9 Trailer die dann trotzem nur 16:9 mit Balken links rechts, oben unten sind... Hört die Auflösungssteinzeit bitte irgendwann mal auf. Oder gibt's den Trailer auch im echten 21:9 nur wurde der wegen falscher Rücksicht auf 16:9 User nicht verlinkt - die haben doch sowieso - bei diesen Trailern Balken oben und unten - nur wieso müssen sich die 21:9 User ständig mit Balken links und rechts abfinden, wenn sie solche Trailer auch Vollbild betrachten könnten...
 
Ooooookay. Jetzt ist man zwar von den 32 GiB RAM weg, hat aber völlig abgehobene GPU-Anforderungen und eine AMD-Empfehlung bei den GPUs sparen sie sich einfach weg.

Da ist ja das einzig Positive, dass die CPU-Anforderungen sehr moderat ausfallen.

Naja, ich bleibe dabei, da wird die Optimierung direkt aus der Hölle kommen. :ugly:

Sehe ich da leider genauso, hier gibt es kaum bis gar keine Optimierung und somit soll es die Hardware (Grafikkarte) eben regeln.
Echt traurig, diese Entwicklung... :daumen2:
 
Hab jertzt erstmal überlegen müssen, was Golum mit "High Dynamic Range" zu tun hat.:kaffee:

und die 4080: Aber es steht ja auch im Artikel: Bei maximalen RT.... Ist am Ende der selbe Käse wie bei CP2077, wir fügen eine neue Detailstufe hinzu damit es die 4080bzw.4090 benötigt/rechtfertigt. Ich würde dann mal gerne die Tests sehen, ob der Unterschied zwischen Hoch (4070) und Ultra wirklich sichtbar ist.
 
"...lesen sich speziell die empfohlenen Hardwarespezifikationen wie von einem kommenden AAA-Spiel, welches Der Herr der Ringe: Gollum aber nun einmal bei Weitem nicht ist."

Ob jetzt ein AAA Titel (wie ist das eigentlich definiert?) oder nur AA, die Unreal Engine mit ordentlicher Grafik befeuert interessiert ja die Hardware nicht. High-End Grafik mit Raytracing kostet halt Leistung.
Im Trailer sieht das aber leider nicht nach High-End- sondern teilweise nach Handy-Grafik aus. Dafür sind die Anforderungen komplett überzogen. Mal sehen was die Tests dann hinsichtlich Optik und Anforderungen zeigen.
 
War doch schon immer so oder gab es eine Zeit, mit ausschließlich gut optimierten Spielen?
Beim PC? Eventuell beim originalen IBM PC oder Tandy. ;)

Wobei Aufrüsten früher wesentlich teurer war (aka kompletter Neukauf) und darum wohl eher auf den kleinsten gemeinsamen Nenner hin programmiert wurde. Wenn man sich dann noch grafisch von der Masse abheben wollte, ohne einen Großteil der potentiellen Kundschaft einzubüßen, wäre theoretisch das Interesse an Optimierung groß gewesen, vor allem da es sich oft um PC-Exklusivtitel handelte, die maximal abgespeckte Versionen für Konsolen bekamen (Ultima 7 für SNES, autsch...)

Origin hat oft Spiele gebracht, die auch grafisch anspruchsvoll waren, aber k.A. ob diese besonders gut optimiert waren.
 
War doch schon immer so oder gab es eine Zeit, mit ausschließlich gut optimierten Spielen?
Ja, die gab es tatsächlich. Das ist aber schon lange her. Auf Computern wie dem Commodore Amiga 500 & Co. wurden die Programme tatsächlich ziemlich oft in Assembler geschrieben, da die Betriebssystemroutinen oft zu langsam / ungeeignet waren.

Und selbst damit waren manche Spiele auf den regulären "Homecomputern" zu langsam. Deshalb gab es z.B. "Wing Commander" erst sehr spät für den Amiga. Und soweit ich mich noch erinnern kann lief das Ding erst ab dem MC68020 aufwärts da der kleine Motorola MC68000 damit komplett überfordert war.
 
Zuletzt bearbeitet:
Den Vogel schießen aber die Systemanforderungen für das Spielen in 4K mit maximalen Details und vollem Raytracing ab. Hierzu soll mindestens eine aktuelle Geforce RTX 4080 inklusive DLSS mit Performance-Preset notwendig werden, um die gewünschten 60 Bilder pro Sekunde auf den Bildschirm zu bringen.
Na dann wird hoffentlich auch nicht mit Raytraycing gespart. Die Erfahrung in Dead Island 2 und den ganzen Bildfehlern ist ja unerträglich. Spiegel, SSR, kaputte Verschattung.
Und was heißt schon den Vogel abschießen, das hört sich wieder so an als ob man ein recht darauf hätte alles in ultra mit hunderten FPS zu spielen. Der nicht will schaltet Raytraycing ab, fertig ist die Laube.

Hmmm, für die volle Pracht im Game in 4K muss man also mind. 1250€ investieren.
*Mosermimosenmodus an*
So ein Mist. Ich kann mit meiner alten GPU nicht mehr alles auf Ultra in höchsten Settings spielen. Muss vielleicht Regler bedienen. Drecks PC, ich hol mir ne Konsole! =)
Es gibt ja noch den Ultra Performancemodus. Bleibt zu hoffen, dass das Spiel FSR unterstützt.
Nachdem einige AMD sponsored Games wie Dead Island 2 keinerlei DLSS unterstützen und man sich das schwächere FSR auf Krampf geben muss, habe ich da nicht so viel Hoffnung.
Wobei Cyberpunk auch FSR supported.
Naja, ich bleibe dabei, da wird die Optimierung direkt aus der Hölle kommen. :ugly:
Wurde das Spiel schon getestet?
 
Zuletzt bearbeitet:
Ja, die gab es tatsächlich. Das ist aber schon lange her. Auf Computern wie dem Commodore Amiga 500 & Co. wurden die Programme tatsächlich ziemlich oft in Assembler geschrieben, da die Betriebssystemroutinen oft zu langsam / ungeeignet waren.

Kein PC und auch da gab es schlecht optimierte Spiele.

Schlechte Optimierung war schon immer einer der Hauptgründe, sich neue Hardware zuzulegen.
 
Machs wie ich, ich kaufe Spiele inzwischen erst Jahre nach Release wenn alles gepatched ist und auch alle Addons schon inkludiert sind. Dann sind auch die dafür notwendigen GPUs billig
In Punkto Inhalt vollständig, oder fertig gepatched etc gebe ich dir natürlich vollkommen recht.
Was aber ein bisschen flöten geht, ist der optische Wow-Effekt.
Jahre später kann das meist nicht mehr beeindrucken.
Außer man bleibt dem Internet wirklich fern.^^
 
und die 4080: Aber es steht ja auch im Artikel: Bei maximalen RT.... Ist am Ende der selbe Käse wie bei CP2077, wir fügen eine neue Detailstufe hinzu damit es die 4080bzw.4090 benötigt/rechtfertigt. Ich würde dann mal gerne die Tests sehen, ob der Unterschied zwischen Hoch (4070) und Ultra wirklich sichtbar ist.
Warum ist es Käse, mehr/ weitere Optionen zu haben?
 
1682513136028.png

Na mein "Schatz" es wird Zeit ne 4080 zu kaufen und erzähl nicht, du hast nicht schon den Preis gegooglt.
Ich rieche deine Angst kein DLSS3 zu haben...und jetzt kauft mich ihr fetten Hobbitse... ;)
 
Zurück