News UE5-Grafikbombe Nightingale: Release früher, Fps-Prognosen auch mit Frame Generation

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu UE5-Grafikbombe Nightingale: Release früher, Fps-Prognosen auch mit Frame Generation

Dank Unreal Engine 5 (UE5) zeigte sich Nightingale im vergangenen Jahr zur Gamescom als einer der beeindruckendsten Grafikkracher. Jetzt geht es eher los als gedacht, inklusive Performance-Ausblick.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: UE5-Grafikbombe Nightingale: Release früher, Fps-Prognosen auch mit Frame Generation
 
Der offene Playtest war mist.
Zunächst waren es nur 3 Stunden und wurden auf 9 verlängert.
Warum der mist war? Man musste innerhalb dieser Zeit einen 56GB Client runterladen.
Steam hat auch rumgezickt und nur mit 1Mbit geladen... es wurd also nichts.
 
Ich warte lieber die Tests ab, wenn man sieht, was mit der UE4 so kommt, habe ich da noch keine großen Erwartungen, dass es auf einmal besser wird.

Die Headlines hier bei PCGH sind mittlerweile eh alle völlig aus dem Ruder gelaufen, da glaube ich eh nichts mehr. (Super/Mega/Horror/Killer & Co.)
 
Die Abhandlung des Play- und Servertests war echt Murks. Mich hat die Einladung per Mail dazu am Freitag Abend erreicht, als ich in ner Bar in der Stadt war und als ich mich Samstag dann mal dran setzen wollte, war schon alles vorbei^^
Die Closed Beta hatte mir aber sehr gut gefallen und ich werde mir den Titel wohl kaufen. Mag das Setting und die Atmosphäre im Game und die Survival und Crafting Komponente geht auch voll i.O.
Optisch stellenweise dann auch definitiv ein Leckerbissen. Was die allgemeine ingame Perfomance angeht ist es glaube ich ganz ordentlich. Die integrierten Upscaling-Verfahren sind brauchbar und helfen im Zweifelsfall ein gutes Stück weiter.
 
Frame Generation wird langsam zu einer Art Normalität bzw. zu einer Voraussetzung. Dies gilt natürlich auch für FSR und andere "upscaling" Methodiken.

In 5 Jahren gehören "Frame Generation" und Co. zur Grundvoraussetzung bei neueren Titeln.
 
Ich kann mich noch erinnern, wie lange ich die Verwenung von DLSS (Q) verweigert habe und mir dachte "ach komm, nur ohne DLSS sinds richtig gute FPS"....

Wie ich dann bei CoD Cold War / Warzone angefangen habe DLSS Q zu nutzen und mir immer mehr dachte "wie konnte ich das so lange ignorieren ?!".

Faktisch sind DLSS & FSR sehr gut gereift und sollten eigentlich dazu gehören.
Man kann sich dann immernoch darüber streiten, ob man den Q oder den P Modus nutzt....
 
Mit DLSS/FSR/XeSS kann ein Bild auch besser aussehen als nativ weil mehr Informationen da sind. Ich schalte es daher grundsätzlich immer ein wenn die Möglichkeit besteht. Dass die Performance besser ist, ist ein angenehmer Nebeneffekt.
 
Mit DLSS/FSR/XeSS kann ein Bild auch besser aussehen als nativ weil mehr Informationen da sind. Ich schalte es daher grundsätzlich immer ein wenn die Möglichkeit besteht. Dass die Performance besser ist, ist ein angenehmer Nebeneffekt.
Das grenzt an ein Wunder. Mehr Informationen als im Original ? Was wird denn Deiner Meinung nach zusätzlich erfunden ?
Du wirst sicherlich recht haben, dass das Bild auch hochskaliert noch gut aussehen wird, aber *mehr* als im Original geht nicht.
 
Das grenzt an ein Wunder. Mehr Informationen als im Original ? Was wird denn Deiner Meinung nach zusätzlich erfunden ?
Du wirst sicherlich recht haben, dass das Bild auch hochskaliert noch gut aussehen wird, aber *mehr* als im Original geht nicht.
Nun als DLSS das erste mal beworben wurde, hieß es das der Algorithmus mit einem 16k Bild angelernt wurde.
Heutzutage ist das nicht mehr der Fall.
Aber die Kantenglättung von DLSS ist derzeit allem überlegen, wie ich finde.
 
Frame Generation wird langsam zu einer Art Normalität bzw. zu einer Voraussetzung. Dies gilt natürlich auch für FSR und andere "upscaling" Methodiken.

In 5 Jahren gehören "Frame Generation" und Co. zur Grundvoraussetzung bei neueren Titeln.
Davon kann man ausgehen. Denke in ein bis zwei Generationen schafft ein Mittelklasse Karte aktuelle AAA Games nicht mehr nativ zu rendern.
 
Das grenzt an ein Wunder. Mehr Informationen als im Original ? Was wird denn Deiner Meinung nach zusätzlich erfunden ?
Du wirst sicherlich recht haben, dass das Bild auch hochskaliert noch gut aussehen wird, aber *mehr* als im Original geht nicht.
Doch geht es, weil DLSS auf mehrere Samples zurückgreifen kann (Frame 501, Frame 502, Frame 503, ...) und drei WQHD Frames enthalten mehr Informationen als ein 4K Frame. Sogar vier 1080p Frames geben, dank Jitter, schon mehr Informationen her.
Lies dich in die Thematik ein, wenn du keine Ahnung hast, und argumentier nicht einfach dagegen.
Ist ja nicht so als hätte es hier nicht schon unzählige Artikel zu dem Thema gegeben, die das bis ins kleinste Detail erläutern.
 
Zuletzt bearbeitet:
Die UE5 Engine ist nicht das was wir damals von ihr erwartet haben, gute Grafik gibt es nur auf kosten der Leistung und die ist 2024 noch nicht ausreichend gegeben.

Die UE Engin war zu Zeiten von Unreal noch überragend und wurde dank jenes Erfolges auch nachhaltig sehr verbreitet.

Mit der UE5 haben sie einfach das Ziel verfehlt, ursprünglich auch entwickelt um die neuen Konsolen damit zu befeuern, aber wohl zu spät gemerkt das die gegenwertige Leitung nicht ausreichend ist, um die Engine auch nur halbwegs auszureizen.

Drum bin ich wenn ich UE5 lese schon meist raus, dafür brauche ich eine 5090 :D
 
Das grenzt an ein Wunder. Mehr Informationen als im Original ? Was wird denn Deiner Meinung nach zusätzlich erfunden ?
Du wirst sicherlich recht haben, dass das Bild auch hochskaliert noch gut aussehen wird, aber *mehr* als im Original geht nicht.
Doch, in gewissem Rahmen schon - über die Zeit.

Ein TAA verrechnet zwar auch über die Zeit mehrere Bilder, ist also im Grunde temporales Supersampling, aber die Upsampling-Verfahren sind da tendenziell noch ausgeprägter. Bei FSR 2 sind es glaube ich bis zu 72 Frames, wenn ich mich recht erinnere und bei DLSS kann man es manchmal sogar zählen. (Jede Stufe in dem Smear ist mindestens ein Frame, der verrechnet oder in diesem Fall vielleicht eher vermischt wird):

1707316444124.png

Der Nachteil ist (zeitliche) Unschärfe - also eine tendenziell weichere, unschärfere und verschmiertere Optik. Aber dagegen nutzen beide Verfahren (und auch TAA, TSR, XeSS...) wiederum Optimierungen/Kniffe (die allerdings nicht immer voll oder wie angedacht funktionieren).

Gruß,
Phil
 
Doch geht es, weil DLSS auf mehrere Samples zurückgreifen kann (Frame 501, Frame 502, Frame 503, ...) und drei WQHD Frames enthalten mehr Informationen als ein 4K Frame. Sogar vier 1080p Frames geben, dank Jitter, schon mehr Informationen her.
Lies dich in die Thematik ein, wenn du keine Ahnung hast, und argumentier nicht einfach dagegen.
Ist ja nicht so als hätte es hier nicht schon unzählige Artikel zu dem Thema gegeben, die das bis ins kleinste Detail erläutern.
Ich bin von einem Upscaling/Upsampling einer Bildquelle ausgegangen, nicht einem Downsampling.
Wie schon PCGH_Phil beschrieben hat, hat das auch Nachteile.
 
Nun als DLSS das erste mal beworben wurde, hieß es das der Algorithmus mit einem 16k Bild angelernt wurde.
Heutzutage ist das nicht mehr der Fall.
Aber die Kantenglättung von DLSS ist derzeit allem überlegen, wie ich finde.
Diese Nvidia-AA-Technik nennt sich DLAA und ist technisch auch ohne Hochskalierung von niedrigerer Auflösung möglich. Muss nur in den Einstellungen auch zur Verfügung stehen!
 
Zuletzt bearbeitet:
Laut den Anforderungen sollte meine 3080 ja wie Ars.. auf Eimer für uwqhd passen.
Mal abwarten ob es wirklich so sein wird.
 
Mal zu den Systemanforderungen: was ich mich seit einiger Zeit schon frage ist, dass wenn man mit einem - sagen wir - i9 10850k in 1440p 60fps erreicht dann sollte der doch auch für 4k@60fps reichen? Ich meine, geht man dann ja nicht noch mehr ins GraKa Limit in höherer Auflösung wenn man das gleiche Frametarget hat? Warum braucht man laut Systemanforderungen der Hersteller dann aufmal einen i9 13900k?

Hab ich da was übersehen oder einen Denkfehler? :ka:
 
Zurück