Fidelity FX Super Resolution: 44 Studios mit dabei, Support für Far Cry 6, Resident Evil Village und Anno 1800

DLSS gäbe es doch bei ausreichender HW gar nicht bzw. RT und das zeigt doch im Umkehrschluss das es überflüssig wird, wenn die HW ausreichend wäre.
Die HW wird aber nie "ausreichend" sein. Das würde nämlich vorraussetzen, dass die optische und allgemein technische Entwicklung bei Spielen die nächsten 10 Jahre erst mal still stehen müsste, damit die HW mit den heute gängigen Methoden hinterherkommen könnte.


Es müsste auch keinerlei Anti-Aliasing Verfahren geben, wenn die HW schon heute stark genug wäre, intern alles in 8K zu rendern, nur bis die HW dazu imstande ist, stellen Spiele in 10 Jahren in 8K auch andere Anforderungen an die HW als heutige Spiele in 8K, und da die reine Rohleistung der HW immer höher zu schrauben mehr und mehr erschwert wird, braucht es auch in Zukunft immer mehr solcher Upscaler.
 
Zuletzt bearbeitet:
DLSS gäbe es doch bei ausreichender HW gar nicht bzw. RT und das zeigt doch im Umkehrschluss das es überflüssig wird, wenn die HW ausreichend wäre.
Zum einen stellt sich die Frage, was hier "RT" zu suchen hat, denn wenn die Hardware "beliebig leistungsfähig" wäre, würde es keine Rasterization geben und man würde komplett mittels Raytracing physikalisch korrekt die gesamte Szene berechnen.
Die Annahme zu DLSS wäre theoretisch korrekt aber auch nicht mehr als das, da es keine "beliebig leistungsfähige" HW geben kann, denn man kann sich sicher sein, dass wenn man mal mit der NextGen echte +400 % Mehrleistungeistung draufschlägt, die verwöhnten Konsumenten mit der nächsten NextGen dann gleich noch einmal +400 % erwarten würden, usw. Die Frage bzgl. der Existenberechtigung von Upscaling-Techniken ist daher rein hypothetischer Natur, denn die Leistung wird noch auf lange Sicht nicht ausreichend sein für die sich immer weiter erhöhenden Ansprüche. Hinzu kommt, dass ein vollumfänglich physikalisch korrekt berechneter Frame für seine Berechnung viele Sekunden in Anspruch nimmt, nicht etwa Millisekunden, d. h. hier könnte man noch viele Generationen lang beträchtliche Leistungszugewinne realisieren, bis man man zu einem derartigen Sättigungsszenario kommen würde und eine "ausreichende HW" erreicht wäre.
DLSS & Co wird also in realisitisch zeitlichem Maßstab niemals überflüssig werden und Raytracing per se nicht, da dieses genaugenommen einfachere Renderingverfahren komplett ersetzen würde (und gar auch absehbar wird).
 
Es ist offen und kann von allen genutzt werden, ich denke Entwickler begrüßen diesen Umstand sehr, wie man ja auch an dem breitem Support erkennen kann, daher kann man m. M. n. nicht von einer Enttäuschung reden.
Dir ist klar dass FSR genau so in Engines implementiert werden muss wie DLSS? Die DLL in den Ordner schieben und es läuft "von allein" gibt's nicht in der Software-Entwicklung.

https://gpuopen.com/fsr-announce/

1624033648090.png


2. Punkt, shader source code, smooth and flexible integration...

Übrigens geht AMD davon aus dass die Entwickler FSR dann selbst weiter entwickeln und auf ihre Engine / Spiele optimieren. Wenn das mal gut geht...
 
2. Punkt, shader source code, smooth and flexible integration...

Übrigens geht AMD davon aus dass die Entwickler FSR dann selbst weiter entwickeln und auf ihre Engine / Spiele optimieren. Wenn das mal gut geht...
Alleine dadurch, dass es auch auf den Konsolen genutzt wird, werden die Entwickler schon ein gutes Interesse daran haben, ihre Engine darauf zu optimieren und soweit ich das sehe, bedarf es nicht wirklich mehr großen Anpassungen an einzelene Spiele, wenn die zugrundeliegende Engine einmal optimiert ist(ähnlich zu DLSS, welches bei der Unreal Engine ja auch nur noch ne simple Checkbox ist und somit den gleichen Aufwand für alle UE Spiele darstellt).


Somit dürfte es sich am PC auch bei allen Engines, die auch auf den Konsolen vertreten sind, ganz gut durchsetzen. Die Unreal Engine dürfte davon allerdings ausgenommen sein, da man hier mit TSR bereits einen Upscaler hat, der auf allen Karten gut funktioniert(und vmtl auch besser als es FSR könnte)
 
Ich finde es klasse dass AMD damit um die Ecke kommt. Die sollen es releasen, es anhand von Feedback optimieren, die ersten Patches bringen und dann schaue ich es mir selbst mal genauer an.
Nach DLSS1.0 bin ich vorsichtiger geworden. Im Idealfall leistet FSR richtig gute Arbeit und bewegt Nvidia zu noch mehr Qualität bei DLSS und AMD muss darauf reagieren. Dann haben wir alle was davon.

Zero,
er hat da nicht unrecht. Auch mMn sollte sich Hardware dennoch stark weiterentwickeln, nicht nur die Softwaretricks. Was wäre möglich, hätten hätten die Spieleentwickler ein Minimum an Ehrgeiz und es gäbe noch anständige Unterstützung für bis zu Quad-Crossfire und SLI?
Zusammen mit den Softwaretricks könnte vielleicht jeder Hannes inzwischen in 32K spielen... Wer weiß. Auf jeden Fall wäre mehr möglich als es jetzt ist. Das muss beides wachsen und darf auf gar keinen Fall stagnieren.
 
DLSS gäbe es doch bei ausreichender HW gar nicht bzw. RT und das zeigt doch im Umkehrschluss das es überflüssig wird, wenn die HW ausreichend wäre.
Die HW wird aber nie "ausreichend" sein. Das würde nämlich vorraussetzen, dass die optische und allgemein technische Entwicklung bei Spielen die nächsten 10 Jahre erst mal still stehen müsste, damit die HW mit den heute gängigen Methoden hinterherkommen könnte.
Exakt.

Man wird vielleicht in 3-4 Jahren zB Cyberpunk 2077 auf 4K/60FPS/RT-Psycho ohne DLSS und ohne FSR spielen können, aber dann wird es schon wieder neue Spiele geben, die die neue Hardware wieder bis über ihr Limit hinaus überfordert, sodass weiterhin zB DLSS zum Einsatz kommen muss.

Die Hardware wird immer den Spielen hinterherrennen und zwar aus dem Grund, dass Entwickler immer mehr Effekte reinklatschen können. Gerade bei Anti-Aliasing, Raytracing oder anderen Leistungsfressern (die man jetzt vielleicht noch gar nicht auf dem Schirm hat), kann man dann halt den Effekt-Faktor höherstellen. Die Entwickler finden immer einen Weg die neue Mehrleistung zugunsten der Qualität "zu fressen".

Daher ist so eine Aussage wie "DLSS" gibt's jetzt nur kurzfristig, etc, Quatsch. DLSS sorgt dafür, dass man nun immer ~160% Leistung (und mehr) im Vergleich zum Normalzustand zur Verfügung hat und man so Spiele entwickeln kann, die ihrer Zeit eigentlich weit vorraus wären, siehe Cyberpunk 2077, das würde nämlich ohne DLSS nicht in seiner jetztigen Form existieren können.
 
Alleine dadurch, dass es auch auf den Konsolen genutzt wird, werden die Entwickler schon ein gutes Interesse daran haben, ihre Engine darauf zu optimieren und soweit ich das sehe, bedarf es nicht wirklich mehr großen Anpassungen an einzelene Spiele, wenn die zugrundeliegende Engine einmal optimiert ist(ähnlich zu DLSS, welches bei der Unreal Engine ja auch nur noch ne simple Checkbox ist und somit den gleichen Aufwand für alle UE Spiele darstellt).


Somit dürfte es sich am PC auch bei allen Engines, die auch auf den Konsolen vertreten sind, ganz gut durchsetzen. Die Unreal Engine dürfte davon allerdings ausgenommen sein, da man hier mit TSR bereits einen Upscaler hat, der auf allen Karten gut funktioniert(und vmtl auch besser als es FSR könnte)
Wenn es so aussieht wie bisher gezeigt, dann bezweifle ich das. Welcher Entwickler hat denn Zeit und Geld, von sich aus, FSR "gut" hin zu bekommen für sein Spiel? Und welcher Entwickler will ein Feature mit dem zwar die FPS steigen, aber die Käufer nachher von massiven Downgrades sprechen?

Nvidia musste einiges investieren damit die DLSS Unterstützung breiter wird / wurde. Erst jetzt ist man in allen großen Engines nativ vertreten.


Zero,
er hat da nicht unrecht. Auch mMn sollte sich Hardware dennoch stark weiterentwickeln, nicht nur die Softwaretricks. Was wäre möglich, hätten hätten die Spieleentwickler ein Minimum an Ehrgeiz und es gäbe noch anständige Unterstützung für bis zu Quad-Crossfire und SLI?
Zusammen mit den Softwaretricks könnte vielleicht jeder Hannes inzwischen in 32K spielen... Wer weiß. Auf jeden Fall wäre mehr möglich als es jetzt ist. Das muss beides wachsen und darf auf gar keinen Fall stagnieren.
Dann sag das mal den "Ampere Stromfresser" Leuten. Die freuen sich bestimmt über Quad-Crossfire / SLI... :lol:

Exakt.

Man wird vielleicht in 3-4 Jahren zB Cyberpunk 2077 auf 4K/60FPS/RT-Psycho ohne DLSS und ohne FSR spielen können, aber dann wird es schon wieder neue Spiele geben, die die neue Hardware wieder bis über ihr Limit hinaus überfordert, sodass weiterhin zB DLSS zum Einsatz kommen muss.

Die Hardware wird immer den Spielen hinterherrennen und zwar aus dem Grund, dass Entwickler immer mehr Effekte reinklatschen können. Gerade bei Anti-Aliasing, Raytracing oder anderen Leistungsfressern (die man jetzt vielleicht noch gar nicht auf dem Schirm hat), kann man dann halt den Effekt-Faktor höherstellen. Die Entwickler finden immer einen Weg die neue Mehrleistung zugunsten der Qualität "zu fressen".

Daher ist so eine Aussage wie "DLSS" gibt's jetzt nur kurzfristig, etc, Quatsch. DLSS sorgt dafür, dass man nun immer ~160% Leistung (und mehr) im Vergleich zum Normalzustand zur Verfügung hat und man so Spiele entwickeln kann, die ihrer Zeit eigentlich weit vorraus wären, siehe Cyberpunk 2077, das würde nämlich ohne DLSS nicht in seiner jetztigen Form existieren können.
So sieht es aus. Allein mit höheren RT-Bounces könnte man die Leistung beliebig fressen, das schafft dann auch keine Next-Next-Gen.
 
Zero,
er hat da nicht unrecht. Auch mMn sollte sich Hardware dennoch stark weiterentwickeln, nicht nur die Softwaretricks.
Das eine schließt das andere nicht aus. Dennoch sollte inzwischen jeder mitbekommen haben, dass die Steigerungen von Leistung aus diversen Chips mit immer mehr (teurem) Aufwand verbunden ist.

Deswegen ist der Umbruch in Richtung Realtime Raytracing und DLSS gerade zur richtigen Zeit erfolgt.
Dadurch ergeben sich langfristig wieder große mögliche Performancesprünge und man macht sich wieder ein wenig unabhängiger von der Fertigungstechnik, da dort nicht mehr Takt und IPC Trumpf ist, sondern man auch über die pure Kernzahl im Sweetspot (sowohl Fertigung als auch Verbrauchstechnisch) agieren könnte.

Wir werden ja die nächsten Jahre sowohl von AMD, INTEL als auch NVIDIA die ersten Prozessoren mit flexibler Modularbauweise sehen in welchen fast nach belieben compute- Tiles als auch GPU- Tiles integriert werden können.

Was wäre möglich, hätten hätten die Spieleentwickler ein Minimum an Ehrgeiz und es gäbe noch anständige Unterstützung für bis zu Quad-Crossfire und SLI?
Quad-Crossfire und SLI haben durch das alternate Frame Rendering immer mit dem Framepacing zu kämpfen und ist daher mehr oder weniger gestorben.

Durch Realtime- Raytracing kann diese Technik jedoch wieder aufleben, da du letztendlich das Pacing vorgeben kannst. Ist ein Quad/Tile noch nicht fertig berechnet, dann schiesst Du es zur Not minimal körniger eben trotzdem rechtzeitig raus, so dass die Frames im Fluss bleiben.
Zusammen mit den Softwaretricks könnte vielleicht jeder Hannes inzwischen in 32K spielen... Wer weiß. Auf jeden Fall wäre mehr möglich als es jetzt ist. Das muss beides wachsen und darf auf gar keinen Fall stagnieren.
Absolut
 
Wenn es so aussieht wie bisher gezeigt, dann bezweifle ich das. Welcher Entwickler hat denn Zeit und Geld, von sich aus, FSR "gut" hin zu bekommen für sein Spiel? Und welcher Entwickler will ein Feature mit dem zwar die FPS steigen, aber die Käufer nachher von massiven Downgrades sprechen?
Wir haben auf den Konsolen ja auch bereits checkerboard rendering von z.B. 1800p auf 2160p. Wenn FSR nun die gleiche Qualität hinbekommt, dabei aber nur mit sagen wir 1600p rendern muss, wäre das schon ein Grund darauf zu setzen.

Den Unterschied von 4K nativ zu 4K FSR Ultra Quality, den man bei Godfall mit der 6800XT gezeigt hat, wird man auf der Couch 4m von seinem 4K TV entfernt nicht so sehr wahrnehmen, wie es einige hier 60cm vor dem Monitor bei 300% Zoom tun. Außerdem weiß man auch noch nicht, ob man hier mit CAS bzw RIS selbst noch nachschärfen kann.
Nvidia musste einiges investieren damit die DLSS Unterstützung breiter wird / wurde. Erst jetzt ist man in allen großen Engines nativ vertreten.
Was aber ja auch daran liegt, dass DLSS selbst zum jetzigen Zeitpunkt von wie viel % der Nutzer der Engines/Games genutzt werden könnte? Wenn man die Konsolen hier mit dazu nimmt, kommt man wohl nicht mal auf 10%.
Gegenüber wie viel % der Nutzer, die von FSR profitieren würden?
Logisch, dass man hier einiges investieren musste, um die Verbreitung zu verbessern, auch wenn es die technisch bessere Lösung ist.

Das gleiche gilt für Raytracing im Allgemeinen. Selbst wenn der Aufwand für die Implementierung überschaubar wäre, muss sich ja jeder Entwickler aktuell noch die Frage stellen, wie viele seiner Kunden man damit denn auch erreicht, also für wen es ein Kaufargument sein könnte.
 
Zuletzt bearbeitet:
Zero,
er hat da nicht unrecht. Auch mMn sollte sich Hardware dennoch stark weiterentwickeln, nicht nur die Softwaretricks. Was wäre möglich, hätten hätten die Spieleentwickler ein Minimum an Ehrgeiz und es gäbe noch anständige Unterstützung für bis zu Quad-Crossfire und SLI?
Zusammen mit den Softwaretricks könnte vielleicht jeder Hannes inzwischen in 32K spielen... Wer weiß. Auf jeden Fall wäre mehr möglich als es jetzt ist. Das muss beides wachsen und darf auf gar keinen Fall stagnieren.
In Zeitalter von Klimaschutzdiskussionen, Hardwarepreisen und wo man 30% Mehrleistung mit 50-100Watt Mehrverbrauch erkauft ist natürlich Quad-Crossfire und SLI erstrebenswert.

Da ist dann das Effizienzargument komplett mal unterm Tisch gefallen wenn Jeder da Draußen so Hardware haben soll für sehr hohe Auflösungen. Lasst uns auch 4x PS5 hintereinanderschalten dann geht sicherlich auch 8k.^^

Hebelt meiner Meinung nach den größten Vorteil, Effizienz mit möglichst geringem Hardwareaufwand, komplett aus was Upscaling-Techniken angeht.

Hardware wird sich entwickeln aber nicht in den Sprüngen wie es vor Jahren noch der Fall war. Da einfach dann noch mehr Hardware zusammenschalten die zumindest jetzt weniger effizient laufen wenn wir bei 350-400Watt GPUs wieder sind finde ich falschen Weg. Zumindest wenn man letzte Prozent an Leistung aus den Dingern quetschen will. Wenn GPU schon doppelte verbraucht wie PS5 und Series X als gesamtes System und dabei das Endergebnis kaum 50% (wenn überhaupt 30%) besser aussieht bekomme zumindest ich leicht flaues Gefühl im Magen.
Man soll jetzt bei unserem Hobby nicht mit grünen Daumen zocken aber trotzdem sollten gewisse Dinge nicht zu sehr explodieren.
 
Wir haben auf den Konsolen ja auch bereits checkerboard rendering von z.B. 1800p auf 2160p. Wenn FSR nun die gleiche Qualität hinbekommt, dabei aber nur mit sagen wir 1600p rendern muss, wäre das schon ein Grund darauf zu setzen.

Den Unterschied von 4K nativ zu 4K FSR Ultra Quality, den man bei Godfall mit der 6800XT gezeigt hat, wird man auf der Couch 4m von seinem 4K TV entfernt nicht so sehr wahrnehmen, wie es einige hier 60cm vor dem Monitor bei 300% Zoom tun. Außerdem weiß man auch noch nicht, ob man hier mit CAS bzw RIS selbst noch nachschärfen kann.
Sag das mal den Anti-DLSS-Leuten hier im Forum. Da ist die geringste Abweichung zu nativ ein Grund die gesamte Technik zu verteufeln. ;)

Dem Vergleich zu DLSS wird sich FSR trotzdem stellen müssen.

Was aber ja auch daran liegt, dass DLSS selbst zum jetzigen Zeitpunkt von wie viel % der Nutzer der Engines/Games genutzt werden könnte? Wenn man die Konsolen hier mit dazu nimmt, kommt man wohl nicht mal auf 10%.
Gegenüber wie viel % der Nutzer, die von FSR profitieren würden?
Logisch, dass man hier einiges investieren musste, um die Verbreitung zu verbessern, auch wenn es die technisch bessere Lösung ist.

Das gleiche gilt für Raytracing im Allgemeinen. Selbst wenn der Aufwand für die Implementierung überschaubar wäre, muss sich ja jeder Entwickler aktuell noch die Frage stellen, wie viele seiner Kunden man damit denn auch erreicht, also für wen es ein Kaufargument sein könnte.
FSR muss erst mal zeigen was es kann, und wie viele Nutzer davon profitieren steht auch noch in den Sternen. Einige Engines bekommen es, trotzdem ist DLSS was Engine-Unterstützung angeht weiter vorne.

FSR: Unity, Frostbite und eine handvoll Studio Engines
DLSS: Unreal Engine, Unity, Frostbite, IDTech und diverse andere Engines

Alleine durch die native Unterstützung in der Unreal Engine wird sich DLSS jetzt sehr schnell verbreiten. Unreal und Unity sind die meistgenutzten 3D Engines unserer Zeit.

Was RT betrifft sieht es genau anders aus, die Implementierung ist viel einfacher als faked/baked Lighting, Shadows, Global Illumination und Reflections. Dazu einfach mal hier ein paar Minuten (5) reinschauen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und RT gibt es jetzt auch nativ in den meisten Engines durch DX12U / Vulkan RT.
 
Was RT betrifft sieht es genau anders aus, die Implementierung ist viel einfacher als faked/baked Lighting, Shadows, Global Illumination und Reflections.
Klar ist sie das, aber das hilft dem entwickler auch nur unter der Voraussetzung, dass die Spiele generell nur noch mit RT kommen. Ansonsten würde ja jedes neue Spiel, auch von kleineren Studios, mit RT kommen, wenn es für den Entwickler einfacher wäre.

Das wird aber noch einige Zeit dauern, bis dahin muss man immer beides einbauen, RT bedeutet also immer einen Mehraufwand, der sich rechnen muss.

Metro Exodus EE wäre ja so nie als eigentständiges Spiel erschienen, die Version für Leute ohne RT fähige Hardware musste auch erst mal gemacht werden.
Wenn GPU schon doppelte verbraucht wie PS5 und Series X als gesamtes System und dabei das Endergebnis kaum 50% (wenn überhaupt 30%) besser aussieht bekomme zumindest ich leicht flaues Gefühl im Magen.
Neben dem Aussehen auch die FPS nicht vergessen. Wenn ich meine 6800XT auf die FPS der PS5 limitiere, ist in den meisten Spielen von den 300W auch nicht mehr viel übrig und es sieht immer noch besser aus.
z.B. Assassins Creed Valhalla auf Ultra Settings mit 60FPS da sprechen wir über ~150W Kartenverbrauch.
 
Zuletzt bearbeitet:
Klar ist sie das, aber das hilft dem entwickler auch nur unter der Voraussetzung, dass die Spiele generell nur noch mit RT kommen. Ansonsten würde ja jedes neue Spiel, auch von kleineren Studios, mit RT kommen, wenn es für den Entwickler einfacher wäre.

Das wird aber noch einige Zeit dauern, bis dahin muss man immer beides einbauen, RT bedeutet also immer einen Mehraufwand, der sich rechnen muss.

Metro Exodus EE wäre ja so nie als eigentständiges Spiel erschienen, die Version für Leute ohne RT fähige Hardware musste auch erst mal gemacht werden.
Geht ja schon los, kleine Entwickler bauen RT mit ein, Beispiele: The Ascent (UE4), The Riftbreaker (Studio Engine - Schmetterling).
 
Sag das mal den Anti-DLSS-Leuten hier im Forum. Da ist die geringste Abweichung zu nativ ein Grund die gesamte Technik zu verteufeln. ;)

Dem Vergleich zu DLSS wird sich FSR trotzdem stellen müssen.


FSR muss erst mal zeigen was es kann, und wie viele Nutzer davon profitieren steht auch noch in den Sternen. Einige Engines bekommen es, trotzdem ist DLSS was Engine-Unterstützung angeht weiter vorne.

FSR: Unity, Frostbite und eine handvoll Studio Engines
DLSS: Unreal Engine, Unity, Frostbite, IDTech und diverse andere Engine.

seit wieviel jahren gibt es DLSS?
ca. 2 jahre?

darf AMD mit seinem FSR dann bitte auch soviel zeit eingeräumt werden um sich bei den engines zu etablieren?!

DLSS war schlieslich auch nicht gleich zum start überall vertreten, aber bei FSR wird dann so getan als müsste das so sein.

übrigens, DLSS ist doch nur so wichtig, weil zb RT und die normale render-leistung nicht genügen heutzutage um dieses bei spielen vollumfänglich als 'vollbild' zu 'rendern'.
dazu noch, was für wahnsinnspreise dafür verlangt wird, das man sich solche eigentlich ja beschämende technik kaufen soll.
ich für meinen teil bleibe dann lieber bei non-DLS und non-RT bis die grafikkarten soweit sind, das die das leistungsmässig auch packen, achja, und über den preis muss man dann auch nochmal reden, über 500€ zahl ich jedenfalls nicht dafür, da bleib ich bei dem was ich habe.

übrigens dürfte DLSS dann auch nichtmehr nötig sein, wenn die karten RT- und renderung-leistungs -fähig genug sind. für mich ist das nur eine übergangstechnik.

ich brauch auch kein 4k oder gar schon 8k, mir reicht 1080p völlig.....
so und nun macht mich schlecht dafür wie ich das so sehe und das ich 'nur' in 1080p spiele ;-) ....
 
Zuletzt bearbeitet:
seit wieviel jahren gibt es DLSS?
ca. 2 jahre?

darf AMD mit seinem FSR dann bitte auch soviel zeit eingeräumt werden um sich bei den engines zu etablieren?!

DLSS war schlieslich auch nicht gleich zum start überall vertreten, aber bei FSR wird dann so getan als müsste das so sein.
Ich sage doch gar nichts anderes? Ich relativiere nur Aussagen hier im Thread in denen behauptet wird dass FSR sich quasi unverzüglich schneller verbreiten wird als DLSS. Das ist nun mal unrealistisch.

Hier wird nicht mal bis zum Relase gewartet....
Siehe oben, schau mal durch den Thread, die FSR-Fans warten auch nicht bis zum Release mit ihren wilden Behauptungen.
 
Neben dem Aussehen auch die FPS nicht vergessen. Wenn ich meine 6800XT auf die FPS der PS5 limitiere, ist in den meisten Spielen von den 300W auch nicht mehr viel übrig und es sieht immer noch besser aus.
Gibt aber auch Gegenbeispiele wie Resi 8 was nativ 4k am PC sogar größere Kanten hat als Upscaling über RE-Engine der Konsole. Dann bricht noch Framerate auf manchen GPU ein bei dem Partikeleffekt mit den Vampierladies.
Das Game bekommt deswegen noch FX SR.


z.B. Assassins Creed Valhalla auf Ultra Settings mit 60FPS da sprechen wir über ~150W Kartenverbrauch.
AC Valahalle lief auf 2080ti schlechter als auf PS5 am Anfang. Lustige ist dass Konsolen sogar Vegetationsstufe über der PC Fassung haben.
Ich weiß nicht wie ich da auf 150Watt kommen soll bei 1440p/60 mit höchsten Settings? Von 4k/60 ganz zu schweigen.

Marvel Avenger konntest 4k/60 mit hohen Setting auf 2080ti nur in Innenlevel halten. Außenbereichen kommst nicht über 1440p/60 hinaus wenn man stabil bleiben will. Erst DLSS 2.0 Patch brachte Abhilfe nicht ständig ins Grafikmenü zu müssen. Auf Series X läuft Game im 1600-1800p in 60fps und sieht auch sehr anständig aus.

Abstand ist Manchmal gar nicht so hoch. Mag bei großen Monitor natürlich bei manchen Dingen eher auffallen als beim Sitzabstand im Wohnzimmer.

Letzten Endes geht es doch darum auch mit 6800 oder 3080 länger auskommen zu können durch DLSS oder FX Super Resolution ohne sich gleich 7800 oder 4080 schon wieder als Konsumgut zu holen.
Man hat halt zumindest Option Hardware dann länger zu nutzen für gewisses Performance-Ziel.
 
Geht ja schon los, kleine Entwickler bauen RT mit ein, Beispiele: The Ascent (UE4), The Riftbreaker (Studio Engine - Schmetterling).
Bei Riftbreaker muss man ja nur sehen, dass es eines der Vorzeigetitel bei AMDs RDNA2 Präsentation war, also werden die das auch nicht einfach eingebaut haben, weil es ihnen irgendwie Arbeit erleichtert hätte.
Wie gesagt, dadurch, dass man die Standardeffekte weiterhin mitmachen muss, ist es halt trotzdem Mehraufwand.
AC Valahalle lief auf 2080ti schlechter als auf PS5 am Anfang. Lustige ist dass Konsolen sogar Vegetationsstufe über der PC Fassung haben.
Ich weiß nicht wie ich da auf 150Watt kommen soll bei 1440p/60 mit höchsten Settings? Von 4k/60 ganz zu schweigen.
Mit der 2080Ti hatte ich ca 200W, die 6800XT ist hier genügsamer bei gleichen FPS (logisch, liefert sie ja auch ~40% mehr FPS in 1440p als die 2080Ti^^)
 
Zurück