News Unreal Engine 5 endlich spielbar: Wie hoch sind die Systemanforderungen für die Demo zu Layers of Fear?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Unreal Engine 5 endlich spielbar: Wie hoch sind die Systemanforderungen für die Demo zu Layers of Fear?

Mit Layers of Fear wird nach Fortnite das erste Unreal-Engine-5-Spiel in Form einer Demo kommende Woche spielbar sein. Wie hoch fallen die Systemanforderungen aus?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Unreal Engine 5 endlich spielbar: Wie hoch sind die Systemanforderungen für die Demo zu Layers of Fear?
 
Da bin ich mal gespannt wie das läuft. Wenn man die Anforderungen an die CPU betrachtet scheinen wohl die wenigsten in ein CPU Limit zu laufen.
 
Hast auch nicht übersehen das bei 4k auch Raytracing mit drin ist ?
In raster hättest recht (8%) aber in Raytracing sind mit 42% mehrleistung der 3080ti dann doch ein großer unterschied.
 
Die Demo zu Layers of Fear erscheint am Montag gegen 17 Uhr und wird die ganze Woche bis Sonntagnacht verfügbar sein. Wirklich lang scheint die Demo nicht zu sein, denn es soll nur einen kurzen Ausschnitt des Gameplays geben. Interessant ist Layers of Fear aber auch durch die UE5-Technik. Demonstriert wurde bereits das "Lumen" benannte Beleuchtungssystem, der beeindruckende Einsatz von Raytracing bei Schatten sowie die unter anderem für Partikel zuständigen "Niagara"-Effekte. Schon jetzt zu sehen gibt es das cinematische Intro.
@PCGH_Thilo: Auch Nanite ist bestätigt!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Also keine LOD-Stufen mehr!
 
Ich finde die komisch. Ne 6800XT is nicht wirklich so weit weg von ner 3080 Ti. ^^
Wirkt in der Tat kurios, denn Fortnite als erstes UE5-Spiel hat auch keinen besonderen Geforce-Fetisch. Sicher, je komplexer das Raytracing, desto stärker Ampere gegenüber RDNA 2, aber eine RTX 2070 und ein 6800 XT passen hinten und vorne nicht zusammen. Warten wir's mal ab. Derzeit wissen wir einfach zu wenig über die Eigenheiten der (frühen) UE5 in einem echten Spiel.

MfG
Raff
 
Wenn die 3080ti die Mindestanforderung für 4 K ist, wie läuft es dann wohl in der Realität auf der?
 
Ich finde die komisch. Ne 6800XT is nicht wirklich so weit weg von ner 3080 Ti. ^^

Da das Spiel scheinbar stark auf Raytracing ausgelegt ist bringt vermutlich keine aktuelle AMD-Karte genug Power für 2160p mit. Zwischen der 6800XT und der 3080Ti liegen da schon Welten und eine RDNA3 bricht auch gnadenlos ein, wenn das Raytracing ein wenig komplexer wird.
 
Da das Spiel scheinbar stark auf Raytracing ausgelegt ist bringt vermutlich keine aktuelle AMD-Karte genug Power für 2160p mit. Zwischen der 6800XT und der 3080Ti liegen da schon Welten und eine RDNA3 bricht auch gnadenlos ein, wenn das Raytracing ein wenig komplexer wird.
Aber nicht so stark wie RDNA2.
Die 7900xtx liegt beim RT auf 3090(ti) Niveau
 
Die Anforderungen sehen für mich wie die klassischen "PCs die die Entwickler so im Büro stehen haben" Anforderungen aus.
Sowohl CPUs als auch GPUs sind ja alles alte Modelle.
Interessant finde ich auch, dass alles mit TSR Balanced angegeben wird. Entweder die UE5 Variante ist deutlich besser geworden oder das sind noch lange nicht die Anforderungen für wirklich gute Bildqualität in der jeweiligen Auflösung.
 
Zuletzt bearbeitet:
Da das Spiel scheinbar stark auf Raytracing ausgelegt ist bringt vermutlich keine aktuelle AMD-Karte genug Power für 2160p mit. Zwischen der 6800XT und der 3080Ti liegen da schon Welten und eine RDNA3 bricht auch gnadenlos ein, wenn das Raytracing ein wenig komplexer wird.
Du übersiehst einen wichtigen Punkt. bei Lumen spielt Hardware RT keine Rolle, siehe Fortnite. Das läuft über Software RT und daher sollte der Unterschied nicht so stark sein.
 
Dachte immer die ue5 nutzt eine eigene technik an raytracing?? Deshalb dachte ich auch das es theoretisch jede karte unterstützt und der vorsprung von nvidia dort keiner ist?
 
Dachte immer die ue5 nutzt eine eigene technik an raytracing?? Deshalb dachte ich auch das es theoretisch jede karte unterstützt und der vorsprung von nvidia dort keiner ist?
Nö, das waren immer nur Wunschträume. Lumen hat zwar ein SW-Fallback, aber wenn die Hardware es kann profitiert es trotzdem von RT-Beschleunigern
Wie sehr wird sich nun bald zeigen.
 
Aber nicht so stark wie RDNA2.
Die 7900xtx liegt beim RT auf 3090(ti) Niveau

Bei einfachem simplen Raytracing, beim Pathtracing kommt sie nicht einmal gegen deutlich kleinere Karten an.

z.B. in CP 2077 Pathtraced 1080p nativ

1683961621016.png


In 4K Nativ ist alles bis auf die 4090 eigentlich verloren, aber man kann dennoch die künftige Raytracing-Performance der GPUs in neuen Games mit Hardware-RT ableiten.

1683961784598.png



Dachte immer die ue5 nutzt eine eigene technik an raytracing?? Deshalb dachte ich auch das es theoretisch jede karte unterstützt und der vorsprung von nvidia dort keiner ist?

Ich bin da nicht so im Thema, aber denke mal schon, dass die speziellen Raytracing-Einheiten einer GPU genutzt werden, wenn vorhanden (zumindest beim Pathtraycing). Bei RDNA3 muss es der Chip halt mit berechnen und da er nicht speziell dafür ausgelegt ist dürfte die Performance entsprechend sein. Vielleicht findet sich hier im Forum ja jemand, der dazu eine Aussage treffen kann.
 
Eine 5080 wird vermutlich aber erst Ende 2024, vielleicht sogar später kommen. Das ist klar? Bis dahin ist der 5800X3D u.U. schon wieder stark veraltet und es lohnt sich ein Plattformwechsel. Mit Raytracing steigt idR. auch die CPU-Last und ich denke mal in naher Zukunft sind 12+ Kerne empfehlenswert, wenn man seine Hardware sinnvoll aufbauen möchte.
 
Naja, der 5800X3D dürfte noch locker 4 Jahre gut performen, ohne dass da ein Flaschenhals entsteht.

Wenn die nächste Konsolengeneration irgendwann kommt und mehr als 8c/16t nutzt, könnten manche Ports unrund laufen, aber bis dahin würd ich mir keinen Kopp machen
 
Bei einfachem simplen Raytracing, beim Pathtracing kommt sie nicht einmal gegen deutlich kleinere Karten an.

z.B. in CP 2077 Pathteigentlich verloren, aber man kann dennoch die künftige Raytracing-Performance der GPUs in neuen Games mit Hardware-RT ableiten.
Was du da kopiert hast sind Community benchmarks, da sind OC Karten und die wildesten CPU kombis drinnen.
Ich beziehe mich lieber auf Einheitliche Tests, wie z.b. den PCGH RT Index.
Alleine dass da 2 7900xtx drinnen sind mit 46% Performance Unterschied nei gleicher CPU, disqualifiziert diese Tests als aussagekräftige Quelle.
 
Zurück