Special Starfield mit DLSS und Frame Gen: Der neue Patch im PCGH-Härtetest

Wer hat herausgefunden, dass die Erde rund ist?
Obacht, in dem Artikel steht zwar drin, dass Galileo dafür angeklagt wurde, dass heliozentrische Weltbild zu vertreten, das bedeutet aber noch lange nicht, dass er dieses Weltbild auch entwickelt hat. Durch diesen Prozess wurde dieses Weltbild aber populär.
Entwickelt wurde das heliozentrische Weltbild schon ca. 100 Jahre früher, von Nikolaus Kopernikus. Da es aber der Kirchenlehre widersprach, wurde es zu seiner Zeit totgeschwiegen.

Wie man merkt, waren die Menschen damals schon weiter, als die Flacherdler von heute :devil:
Kann sein, ich habe mich damit nicht beschäftigt, kenne nur Galileo von der Schule schon lange her. ^^ Aber ihr wisst, was mit meinem Vergleich gemeint war.:)
Ok, und die Quintessenz daraus ist?
Das ihr, die neuen Hardware- Flacherdler seid in dem Fall KI upscaling :D
 
Du und der Andere da, sind Upscale Aluhutträger, ihr seht Dinge die real nicht existieren.
Das physikalische Nichts, das perpetuum mobile im GPU Bereich "der Upscaler" ;)

Ich nehm lieber echte Rechenleistung als so Fakefilter.
Was ein Pech bald wird es nur noch upscaler geben. lol überhaupt sind es nicht reine upscaler aber das wäre weit über deinem horizont.

man muss schon blind sein um nicht zu sehen das es besser aussieht.
 
Nee das wird immer nur ein Mittel sein, um bei GPU die zu langsam sind den Leuten eine Möglichkeit der FPS Erhöhung zu geben, mehr nicht.
Ggf wird der Mumpitz auch irgendwann einfach wieder Verschwinden, wenn das Markting sich was neues einfallen lässt.

Nee da ist nichts besser.
Es gibt Leute die auch keinen unterschied zwischen MP3 128kbit und FLAC hören, deshalb ist es aber nicht die Wahrheit.
 
Es ist schon krass, was DLSS und co an performance rausholen können. Gut, das Spiel läuft jetzt allgemein besser, aber trotzdem.

Zum Release hatte ich stellenweise auch nur mal 50-60 FPS auf einem 5800X3D und einer RTX4080 in 1440p, was eine Frechheit ist.

FSR hatte ich in voller Auflösung genutzt, weil es mir darunter zu stark flimmerte.

Jetzt mit den Optimierungen, DLSS und Frame Generation klebe ich praktisch durchgehend im FPS Limit. Ein Unterschied wie Tag und Nacht.

Die DLSS Implementierung ist MMn. extrem gut und wohl eine der mit abstand besten Implementierungen überhaupt. DLAA sieht aus wie gedruckt und selbst DLSS Quality sieht nahezu perfekt aus. Mit der DLSS Mod von Pure Dark die ich mir einige Tage nach Release besorgt hatte, hatte ich in Bewegung ein wenig mehr Unschärfe und ein wenig mehr Aliasing. Die DLSS Mod war zwar viel besser als FSR und entsprach dem was ich von DLSS erwartet hätte, aber die offizielle Implementierung ist jetzt tatsächlich nochmal besser. Das war für mich doch ne kleine Überraschung.


Ich finde es zwar auch Mist, dass Upscaling und Frame Generation jetzt quasi die performanceprobleme fixen müssen, denn trotz der Optimierungen finde ich die Anforderungen für die Gebotene Optik viel zu hoch. Trotzdem ist es wieder mal absolut beeindruckend, was DLSS und Frame Generation hier leisten und quasi per Klick die maximale Bildrate meines Displays ausgereizt wird und die Karte dabei noch weniger Strom verbraucht. Der Performanceüberschuss den man hier trotz schlecht optimiertem Spiel und trotz potenziellem CPU Limit hat ist unfassbar und man bekommt irgendwie schon das gefühl, in den nächsten 10 Jahren keine neue GPU mehr kaufen zu müssen. Vor allem, dass man das CPU Limit mit FG so gut umgehen kann ist etwas wovon man vor einigen Jahren nur träumen konnte.
 
Bin ich eigentlich der einzige, der hier das Problem nicht erkennt?
Spiel instaliert, bei WQHD alles auf Anschlag und FSR natürlich"ist aus":D.
Es sieht gut aus und läuft flüssig mit 80FPS.
 
Nee das wird immer nur ein Mittel sein, um bei GPU die zu langsam sind den Leuten eine Möglichkeit der FPS Erhöhung zu geben, mehr nicht.
Also macht Upscaling doch seinen Job. Dass das nichts bringt, ist deinerseits also auch gelogen. Und dass die Bildqualität jetzt so viel schlechter sein soll (zumindest bei DLSS), ist jetzt auch nicht wahr.
 
Ui, die Tabelle mit den Daten inkl. Verbrauch ist ja super. Bitte beibehalten :daumen.
Vllt noch zusätzlich die fps mit eintragen, ist dann zwar doppelt gemoppelt aber man hat noch mal alles in einer Übersicht.

Gerade die Verbrauchsdaten sind heftig. Selbst die 4070 ist mal eben so über 30% effizienter als die 7800XT. Zwischen 4090 und 7900 XTX ist der Unterschied ähnlich. Je geringer die Auflösung desto größer der Unterschied...

Wieso wird eigentlich im ganzen Artikel von der 7900 XTX geschrieben und in den Diagrammen heißt es dann auf einmal 7900 XT. Ich bin verwirrt ^^
 
Hier übrigens, was sich CPU-seitig seit dem Patch getan hat. Ausgangswert vor dem Patch:
1700723708068.png


Die Benchmarks meiner Kiste:
1700723746662.png


Also selbst ohne SMT und nur mit DDR5-4800 (Eco) kommt der 78er jetzt an den Release-Wert heran. Mit SMT und DDR5-6400 inkl. weiterer Optimierungen sind es dann über 36 Prozent mehr Fps. Leider macht die bessere Performance kein besseres Spiel aus Starfield.
 
Starfiel unterstützt leider immer noch keinen mulit-Monitor Betrieb, was für ein Release in 2023 gelinde gesagt ein absolutes NoGo ist.
Ich nutze jetzt seit ca. 9 Jahren einen drei-Monitor Betrieb über Nvidia Surround und kann mich nicht erinnern, wann ein Spiel in dieser Zeit zuletzt keinen multi-Monitor Betrieb unterstützte, zumal das ja auch technisch betrachtet nun wirklich keine Herausforderung ist.
Das dies auch mit dem jetzigen Technik Patch nicht nachgeliefert wurde ist eine herbe Enttäuschung. Für mich ist Starfield nicht spielbar, bis das gefixt wurde.
 
Ui, die Tabelle mit den Daten inkl. Verbrauch ist ja super. Bitte beibehalten :daumen.
Vllt noch zusätzlich die fps mit eintragen, ist dann zwar doppelt gemoppelt aber man hat noch mal alles in einer Übersicht.

Gerade die Verbrauchsdaten sind heftig. Selbst die 4070 ist mal eben so über 30% effizienter als die 7800XT. Zwischen 4090 und 7900 XTX ist der Unterschied ähnlich. Je geringer die Auflösung desto größer der Unterschied...

Wieso wird eigentlich im ganzen Artikel von der 7900 XTX geschrieben und in den Diagrammen heißt es dann auf einmal 7900 XT. Ich bin verwirrt ^^
Thx. Ist ein bisschen Mehrarbeit, aber das ist definitiv nützlich, um auch die Performance besser einschätzen zu können. Und auch am Verbrauch kann man oft gut erkennen, was besonders stark belastet wird (nicht immer eindeutig, bzw. nicht immer ist das eben effizient, daher sollte man auch die restlichen Daten in Relation betrachten). Und ja, die RX 7900 XTX säuft.

Das XT in den Benchmarks ist der Fehler, ist eine XTX. Da habe ich die falsche Entität aus der Datenbank gegrabbelt (bzw. daneben geklickt). Das fix ich mal eben.

Gruß,
Phil
 
Zuletzt bearbeitet:
Nur nativ ist nativ <3
Danke für die Screenshots, sieh man mal wieder diese Upscalegedöns nichts bringt :P
Was hast du denn von nativer Auflösung, wenn da ein TAA ohnehin die Daten mehrerer Bilder "verwischt", wenn doch DLSS Q bei höherer Leistung auch noch das schärfere und gleich flimmerfreiere Bild liefert? Wenn nativ, dann muss das auch knackscharf sein.
 
Thx. Ist ein bisschen Mehrarbeit, aber das ist definitiv nützlich, um auch die Performance besser einschätzen zu können. Und auch am Verbrauch kann man oft gut erkennen, was besonders stark belastet wird (nicht immer eindeutig, bzw. nicht immer ist das eben effizient, daher sollte man auch die restlichen Daten in Relation betrachten). Und ja, die RX 7900 XTX säuft.
Ich finde es auch spannend zu sehen wie sich das Verhalten zwischen den Auflösungen verändert. Von UHD auf WQHD droppt der Verbrauch bei der 4090 um ca 75W, während sich bei der 7900XTX nichts tut. Laut Anzeige sind aber beide Karten angeblich nahezu vollständig ausgelastet. In dem Szenario ist die 4090 also nicht nur 13% schneller, sondern die 7900 XTX verbraucht auch noch 22% mehr.

Und es zeigt sich auch mal wieder, an dem Mythos "Nvidia ist in DX12 so lahm im CPU Limit" ist auch in diesem Titel nicht viel dran. Beide sind gleich schnell im CPU Limit und wieder bei CPU Verbrauch noch Auslastung sind Auffälligkeiten zu sehen.
Das XT in den Benchmarks ist der Fehler, ist eine XTX. Da habe ich die falsche Entität aus der Datenbank gegrabbelt (bzw. daneben geklickt). Das fix ich mal eben.
Ah, danke. Ich war schon etwas verwirrt weil Leistung und Verbrauch eindeutig zur XTX gepasst haben ^^
 
ist das game nicht super tot? trotz gamepass?
spielt kaum wer und ingame so leer (tod) wie alles andere?
zumindest ruckelt es nun wohl nicht mehr so doll :lol:
TRIPPLE A Enttäuschung des jahres, aber war vorher klar, bei den mülltrailern

UPDATE: hab mal geschaut vor 14 tage noch 30000 Spieler und gestern keine 15000 :daumen:
wenn sich alle 14 tage halbiert wars das wohl bis weihnachten

1700761373109.png
 
Zuletzt bearbeitet:
Das alles liegt schlichtweg daran dass ihr es immer noch nicht begriffen habt! ?
Das es zum Tearing kommt wenn man das Eingangssignal "übersteuert" müsste einem klugen Menschenverstand doch einfallen oder nicht?!
Wenn ein Auto maximal 5000 Umdrehungen schafft kannste nicht einfach auf 5300 Umdrehungen gehen, fängt der Motor an zu stottern! ?
Physikalische Größe Bereich Elektrotechnik/Mechanik/Thermodynamik ?
Das geht nicht gut. ?

Und Fakt ist ebenfalls das laut Physik der Datendurchsatz mit steigender Geschwindigkeit instabil wird.
Soll heißen: " je "schneller" die Bewegung, desto "weniger" Informationen werden benötigt.

2 physikalische Größen die die Wahrnehmung, nicht nur unserer Augen, sondern auch die informationelle Ausgabe des Monitors beeinflussen.

Bei schnellen Bewegungen ergeben "viele" Informationen ein "unscharfes" Bild. (Physikalische Bewegungsunschärfe) .
Die KI versucht also ständig euren "besser als die Realität" Wahnsinn zu kompensieren uns erfüllt das was sie soll - Realismus erzeugen!
Und die Realität ist leider nicht so hoch auflösend wie ihr es euch wünscht! ?
 
Zurück