Ist sie nicht, war sie nicht und wird sie nie sein. Die UE4 ist zu alt und trägt massig Altlasten mit sich herum.
Zum Zeitpunkt ihres Release war UE4 der Konkurrenz meilenweit voraus.
Ja, sie ist etwas in die Jahre gekommen.
Aber es gibt ja auch schon die neue Version 5.
Eine gewisse Schuld ist bei den Entwicklern definitiv zu suchen, doch du machst es dir zu einfach. Willst du etwa sagen, dass die Entwickler in den letzten 2 Jahren verblödet sind und die UE4 nicht mehr im Griff haben? Die Stutter-Problematik ist regelrecht explodiert in den letzten 2 Jahren. In meinen Augen wird die UE4 inzwischen schon weit übers Limit hinaus gepusht. Für optisch anspruchsvolle Titel mit großen Welten von heute war die Engine nie gedacht.
Vllt. nicht verblödet, aber offenbar wurde dem Thema oft nicht genug Zeit und Aufmerksamkeit geschenkt.
Seit der UE4 gibt es jedenfalls Level Streaming. Zugegeben, das ist ziemlich kompliziert (u.a. deshalb habe ich das selbst auch noch nicht ausprobiert).
Aber es existieren Tech Demos dafür im UE Marketplace.
Beim Detailgrad macht es in fast allen Engines (auch der UE4) einen erheblichen Unterschied ob separate, per Ladescreens abgetrennte Level oder eine große Open World ohne Ladescreens zum Einsatz kommen. RAM und VRAM wachsen schließlich nicht auf Bäumen, das Streaming muss mit den enormen Datenmengen ebenfalls klarkommen (Stichwort Stuttering).
s.o.
Nanite sollte da helfen.
Man sollte auch nicht die alte Engine von damals mit den neuesten Modellen der anderen vergleichen. Das Level Streaming für Open Worlds gibt es auch erst seit UE 4.27 in 2015. Was hatte denn da die Konkurrenz zu bieten?
Damals war die UE4 bahnbrechend.
Heute ist es die UE5.
Ich sag' ja auch gar nicht, dass die anderen Engines alle Kacke sind (ausser vllt. Unity..).
Nur ein Feature Set wie in UE gibt es woanders nicht.
Und wenn die nachzuladende Welt einfach vom Umfang sich selbst mit einer PCIe Gen 5 SSD nicht mehr in der benötigten Zeit nachladen lässt, kann dir auch keine andere Engine helfen.
Die RED Engine macht das bei Cyberpunk zugegebenermassen schon recht gut, man nimmt es nur sehr unterschwellig wahr, dass die Texturen von quasi allem, was nachgeladen wird, für die ersten paar Sekundenbruchteile absoluter Pixelmatsch sind. Das ist natürlich besser, als so lange die Frame Erzeugung komplett anzuhalten und darauf zu warten, dass die hochauflösenden Mip Maps verfügbar sind.
Auch ist mir klar, dass auch die UE nicht vollkommen frei von Mängeln ist.
Nur ist es unterm Strich m.M.n. eben doch die fortschrittlichste Engine.
Wo und wann hat CDPR das gesagt? So ziemlich alle UE4 Titel mit RT in der jüngsten Vergangenheit hatten immer wieder dieselben Probleme. Mit RT werden plötzlich die Frametimes unruhig oder es kommt sogar zu Mikrorucklern, RT performt im Vergleich zu anderen Engines schlecht, so dass Spar-RT zum Einsatz kommt. Immer wieder Probleme mit kaputten Gamma-Settings sobald RT an ist usw. usw. Die Liste ist lang bei der UE4.
Fortnite läuft ziemlich gut, oder? Bezeichnenderweise von einem Entwickler, der aus nachvollziehbaren Gründen gute Kenntnisse der Engine besitzt.
Bei Ghost Wire: Tokyo hat man es auch geschafft. Und bei Mechwarrior 5. Und The Ascent.
Oder du machst es wie die Entwickler von Jedi Survivor. Schei*t komplett auf die Performance und baust trotzdem RT ein - einfach um sagen zu können wir haben RT. Jedi Survivor ist ein Paradebeispiel für die katastrophale RT-Performance der UE4.
Rushed Release.
Mit mehr Zeit und Resourcen hätte man da etwas dran machen können.
Das war es den Geldgebern aber wohl nicht wert.