News Starfield: FSR 3 mit Frame Generation mit Update 1.9.67 für jedermann freigeben

Ich dachte immer FrameGen bringt nur merklich was wenn man eh schon 60 Fps hat? Wie will man die den annährend bei Satrfield mit nem kleinen System erreichen?

Davon abgesehen scheint die Bildqualität von FSR3 ja laut PCGH "wirklich schlimm" zu sein.
???
Raff ist mit der Bildqualität von FSR3 in SF zufrieden.(siehe Post#12)

bezgl. FG
Würde mal denken das FG schon mit weniger Grund-Fps stabil läuft als AFMF.
(stabil hinsichtlich Frametimes)

Muss halt Jeder für sich selbst ausprobieren, obs knapp oberhalb der unteren FreesyncRange
schon reicht. (je nach Moni irgendwo zw. 48..40fps mit vllt. 2Fps mehr dann FG=on)
Sollte dann kein Tearing geben, selbst wenn FG stellenweise mal nur wenig Fps+ beisteuert.
 
Zuletzt bearbeitet:
aff ist mit der Bildqualität von FSR3 in SF zufrieden.

"Leider ist AMDs FSR 3.0 Super Resolution der DLSS 3 Super Resolution qualitativ deutlich unterlegen. FSR 3.0 ist einfach nicht in der Lage, die vielen Details zu rekonstruieren, was zu einer Menge Aliasing auf zahlreichen Oberflächen führt. Es sieht wirklich schlimm aus."

Sind eben nicht alle der selben Meinung bei PCGH.
 
"Leider ist AMDs FSR 3.0 Super Resolution der DLSS 3 Super Resolution qualitativ deutlich unterlegen. FSR 3.0 ist einfach nicht in der Lage, die vielen Details zu rekonstruieren, was zu einer Menge Aliasing auf zahlreichen Oberflächen führt. Es sieht wirklich schlimm aus."

Sind eben nicht alle der selben Meinung bei PCGH.
Kann sein, dass Sven da anderer Meinung ist, wenn man das so liest, aber das von dir aufgeführte Zitat stammt nicht von PCGH, sondern DSO-Gaming.
 
Kann sein, dass Sven da anderer Meinung ist, wenn man das so liest, aber das von dir aufgeführte Zitat stammt nicht von PCGH, sondern DSO-Gaming.
Es ist abgesehen von einigen dunkelroten Fanboys allgemeiner Konsens, dass FSR DLSS in den meisten Fällen deutlich unterlegen ist bei der Bildqualität. Und da hat sich seit FSR2/DLSS2 wenig (gar nichts) verändert. Hat man auch sehr gut bei Starfield gesehen, als die DLSS-Mod kam. Das war ein großer Sprung zum eingebauten FSR.
 
Es ist abgesehen von einigen dunkelroten Fanboys allgemeiner Konsens, dass FSR DLSS in den meisten Fällen deutlich unterlegen ist bei der Bildqualität. Und da hat sich seit FSR2/DLSS2 wenig (gar nichts) verändert. Hat man auch sehr gut bei Starfield gesehen, als die DLSS-Mod kam. Das war ein großer Sprung zum eingebauten FSR.
Hinzukommt das große Problem das FSR FG offizell nur in kombination mit dem FSR upscaler funktioniert (ja es gibt inoffizelle mods ect wo es auch unabhängig funktioniert und mit zb DLSS kombinierbar ist)

Wärend Nvidias DLSS FG frei mit allen upscaling techniken funktioniert.

das Feature kann ja an sich ganz nett sein.. nur die Bindung an den FSR upscaler ist ein problem
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das Abgleiten in allgemeine Diskussionen ist off Topic.
Hier gehts nur um SF@FSR3+FG.
 
Es ist abgesehen von einigen dunkelroten Fanboys allgemeiner Konsens, dass FSR DLSS in den meisten Fällen deutlich unterlegen ist bei der Bildqualität. Und da hat sich seit FSR2/DLSS2 wenig (gar nichts) verändert. Hat man auch sehr gut bei Starfield gesehen, als die DLSS-Mod kam. Das war ein großer Sprung zum eingebauten FSR.
Die musste halt ignorieren, dann lebt es sich leichter.
Bei dir liest sich das gerade übrigens wie als ob das in Frage gestellt wurde. Dabei sagst du selbst und ich sehe das ebenso, das da Konsens herrscht.
Auch die nächsten zwei Beiträge lesen sich irgendwie so. Ich kann das gerade nicht nachvollziehen, denn es ging doch ausschließlich darum dass hier in den Raum gestellt wurde, dass irgendwer bei PCGH sich nicht einig sei was die FSR3 Qualität in Starfielt anbelangt. Daraufhin meinte ich, dass das sein kann, das zum Beweis aufgeführte Zitat aber eben nicht von der PCGH-Crew stammt, sondern von einer externen Quelle.
Also der ein oder andere hier, so denke ich, sollte sich mal entspannen und auf das geschriebene antworten und nicht irgendwo was hindichten was nicht da war. Denn genau diese User sind es dann, die später beispielsweise behaupten, dass "dunkelrote-Fanboys" (allein dieses Schubladendenken zeigt schon wie jemand tickt) etwas gegenteiliges behaupten würden. Lese ich aber fast ausschließlich von eben der anderen Truppe. Sprich selbst wenn fast alle sich einig sind (Konsens), kommt irgendwer daher und behauptet es wäre nicht so und der Nächte nimmt das dann wieder für wahr usw. Ist doch Mist und nervt nur diese Art miteinander umzugehen.

Beispielsweise finde ich DLSS auch ausgereifter als FSR (abgesehen von Schlieren), obwohl man zwei unterschiedliche Techniken mMn nicht vergleichen sollte, aber hab kein Problem damit wenn einer sagt, dass es in Starfield ganz gut aussieht. Dann bedeutet das nur etwas für Starfield und sagt nichts aus über die allgemeine Wahrnehmung dieser Person und schon gar nicht aller anderen.
 
Schon lustig, bei Dell gibt es mit dem AW3423DW und dem AW3423DWF quasi zwei mal denselben Monitor, ersteren mit GSync Ultimate und letzteren mit Fresync Premium Pro. Jetzt hat mit einer AMD Karte ein bessere Erlebnis mit dem GSync Ultimate Modell :haha:
jap.. Fairerweise muss man allerdings auch sagen das dass G-Sync Modul so seine eigenen "macken" hat.. (aktiv gekühlt.. nur 175hz@8bit)

und du bekommst beim DWF das Freesync Premium Pro abgewürgt indem du mit CRU den Freesync Block löscht und Neu anlegst.. und man kann Problemlos ne Costum auflösung anlegen mit 165hz@10bit
aber das sind alles Spielerreien die übers Reviewfähiges Plug&Play hinausgehen...
VRR funktioniert mit beiden Monitoren bei beiden GPU Herrstellern prächtig
 
Nein ist ein AMD only Problem.
es gibt 2 Arten von statischen HDR Metadaten (hier wird Max, AVG und Min luminance sowie ein paar gamma Transferfunktionen festgelegt) mit jeweils eigenen Metadaten Block in der EDID ( die daten die der Monitor deiner GPU sendet)

.. einmal die Klassische HDR Pipeline (Nvidia + Intel)

und einmal die HDR Pipeline von Freesync Premium Pro (für AMD Karten.. findet sich im Freesync Metadata block und ist stand heute immer noch nicht via thirtparty tools editierbar)

VRR wird einmal im Freesync block (Amd Karten) aber auch in den Range Limits (Nvidia + Intel) festgelegt..

Die AMD HDR variante scheint jedoch limitierter und/oder Buggy zu sein da sie auf vielen Monitoren einfach nicht richtig funktioniert.. ihr Vorteil ist halt das Freesync Premium Pro zertifizierte Spiele direkt ingame die Werte auslesen können und sich selbst passend darauf einstellen..
(gibt vielleicht 3 Spiele die das unterstützen.. ua Assasins Creed odyssey + Valhalla)


sieht man hier gut bei dem Test vom OLED G8
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


gibt n Workaround dafür um das zu fixen.. dafür muss man mit CRU allerdings den Freesync Block in den EDID Daten löschen und ihn neu anlegen.. wodurch man dann natürlich auch Freesync Premium Pro verliert (VRR funktioniert trotzdem)

stand heute über n jahr Später und zig Firmwareupdates Später ist das Problem immer noch vorhanden mit dem Monitor.. was heist das Samsung es entweder programmiertechnisch nicht hinbekommt.. oder das FS2 einfach zu sehr limitiert ist

und das Zieht sich halt momentan durch alle Monitore mit der FS2 HDR pipeline durch.. selbst der Neue Asus 240hz 4k Oled packt bei einer AMD Karte keine 1000nits in Spielen (in Filmen lustigerweise schon was bedeutet das es auch eventuell eine Treibersache ist)

im moment sind die Spekualtionen dazu das AMDs HDR Pipeline das 10% White Fenster als Peakhelligkeit angibt (deswegen fällt das bei LCDs weniger auf als bei Oleds die ihre 1000nits nur im 3% White Fenster schaffen)
wärend die Klassische HDR10+ Pipeline die Max Display Peak Helligkeit meldet
Wer nutzt denn heut zu Tage noch HDR?
Natürlich PC Besitzer 😂

Mit Dolby Vision läuft das alles viel stabiler.
Leider setzen die meisten Monitor Hersteller immer noch auf HDR und die Portierung vom aktuellen Marktführer Nvidia.
Die AMD Entwicklung geht da schon eher in Richtung Dolby Vision und Freesync Portierung sowie es im TV Bereich aktuell üblich ist.
Mein Q-LED UHD TV unterstützt diese Formate und hat selbst AMD upscaling Technologie an Bord. 😉
Starfield auf der Series S an meinem Q-LED TV erzeugt eine Bildwiederholrate UHD @ 600 Hertz. 😂 Mit Dolby Vision, Frame Generation, FreeSync und ALLM (Auto Low latency mode).
Ich hab noch nie im Leben so wundervolle Bilder erlebt, nicht einmal bei realen Aufnahmen 😂
Call of Duty das gleiche.
 
Wer nutzt denn heut zu Tage noch HDR?
Natürlich PC Besitzer 😂

Mit Dolby Vision läuft das alles viel stabiler.
Leider setzen die meisten Monitor Hersteller immer noch auf HDR und die Portierung vom aktuellen Marktführer Nvidia.
Die AMD Entwicklung geht da schon eher in Richtung Dolby Vision und Freesync Portierung sowie es im TV Bereich aktuell üblich ist.
Mein Q-LED UHD TV unterstützt diese Formate und hat selbst AMD upscaling Technologie an Bord. 😉
Starfield auf der Series S an meinem Q-LED TV erzeugt eine Bildwiederholrate UHD @ 600 Hertz. 😂 Mit Dolby Vision, Frame Generation, FreeSync und ALLM (Auto Low latency mode).
Ich hab noch nie im Leben so wundervolle Bilder erlebt, nicht einmal bei realen Aufnahmen 😂
Call of Duty das gleiche.
Dir ist schon klar das:
1. Dolby Vision seine eigenen HDR Werte hat.. festgelegt in den Dynamic HDR Metadata und als Fallback nach wie vor HDR10 benutzt festgelegt im Static HDR Metadata Block (du brauchst beide blocks sonst kannst kein HDR aktivieren)

2. kaum ein Spiel nativen Dolby Vision Support hat (ich kenn nur BF1) und deswegen alle Standartmässig HDR10 mit dem entsprechenden Static HDR Metadata block benutzen..

3. Fernseher das VRR über die Rangelimits und dem HDMI 2.X support Datablock realisieren.. und nicht über den Freesync datablock

4.das freesync Premium pro dynamische HDR Daten aktiv unterbindet.

5. Das HDR auf einem qled .. selbst wenn Lowlatency an ist.. gute 15-20ms inputlag zusätzlich verursacht wegen des Backlight Algorithmuses um das blooming der Dimmungzonen zu reduzieren

ansonsten kann ich deinen post nur als Trollversuch interpretieren
 
Zuletzt bearbeitet:
Starfield auf der Series S an meinem Q-LED TV erzeugt eine Bildwiederholrate UHD @ 600 Hertz. 😂 Mit Dolby Vision, Frame Generation, FreeSync und ALLM (Auto Low latency mode).

Weder auf der XBox noch auf dem PC unterstützt das Spiel HDR oder DolbyVision native.

Auf dem PC bekommt man echten HDR Support mit dem Luma mod. Davon ist das AutoHDR der Konsole Lichtjahre entfernt.
 
Funktioniert bei mir echt gut muss ich sagen, fühlt sich jetzt sehr fluffig an das Spiel.
Bin allerdings schon einmal durch, von daher kommt das ganze "etwas" spät :D
 
Das wird im Artikel unnötig polarisierend beschrieben. FSR3 war zum Zeitpunkt der Veröffentlichung von SF noch nicht verfügbar. Da stellt sich eher die Frage, warum DLSS nachgereicht werden musste.

Ja, genau das ist das Problem bei AMD, die Hardware wird erst (etwa 6-12 Monate) nach Launch ohne größere Einschränkungen nutzbar gemacht, auf die sinnvolle Nutzung mancher angekündigter Features wartet man manchmal vergebens.


Das heißt auf gut Deutsch .

Kaufe jetzt zb Amd 7900xt für ca. 800,- Euro , und nutze wegen schlechter Amd Treiber das Potential 6-12 Monate später oder vieleicht niemals .

Dafür gibt man ja gerne sein Geld aus . :devil:
 
Zurück