Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

Ohne RT und DLSS sieht CB2077 mit meiner 2080Ti OC auf 5120x1440 bei passender Framerate immer noch super aus. Damit kann ich zufrieden leben, solange die aktuelle HighEnd-Kartengeneration um bis zu 3000,-€ -also 6000,-DM kostet und nebenher kaum noch stromtechnisch und thermisch beherrschbar ist. Ich könnte wetten... bei den Arbeitstemperaturen um die 100°C werden das nächste Jahr bestimmt reihenweise 3080er und 3090er an Speicherchipausfällen wegen ungewollter Diffusion frühzeitig verrecken. Und der Sommer kommt auch bald...
 
Danke für die Ausführung :daumen:
Hoffentlich kommen bald auch mal solche Spiele ^^
Gerne :)

Ich rechne allerdings nicht vor 2022 damit, da es notwendig ist, das Texturenstreaming wie wir es in heutigen Titeln kennen, komplett umzukrempeln und auf SSD-Streaming und SFS angepasst werden muss. So lange die alten Konsolen noch mitgezogen werden, wird das also nix. Wahrlich ein Klotz am Bein.

Ich könnte mir aber vorstellen dass ein paar innovative Entwickler in der Zwischenzweit eine höhere Texturstufe anbieten werden, die nur auf DX12U kompatiblen GPUs aktivierbar ist (also Turing, Ampere und RDNA2) und auch den VRAM-Bedarf auf diesen reduziert.

Das schöne ist ja auch, dass es deshalb nicht nur bessere Texturqualität sondern auch ruhigere Frametimes und weniger Pop-In ermöglicht! Ich glaube, Cyberpunk würde dieses Feature sehr gut tun. DX12U nutzt es ja schon, aber leider nur für Raytracing.
 
Zuletzt bearbeitet:
Die RTX 3070 hingegen hat Probleme, in niedrigen Auflösungen ihre Leistung voll auf die Straße zu bekommen und bremst somit auch die CPU auf ein niedrigeres Performance-Niveau aus.
Ein Problem, was man ja schon kurz nach dem Release der RTX 3080 feststellen konnte, dass die Ampere Grafikkarten in Form von RTX 3080 und 3090, in den Auflösungen FHD u. WQHD nicht ihr volles Potenzial ausschöpfen konnte. Mich würde nur mal interessieren woran das liegt und warum Nvidia das auch scheinbar nicht über den Treiber geregelt bekommt.

Für mich kam nur die RTX 3080 in Frage, da ich endlich meinen UHD Monitor befeuern wollte, was auch sehr gut funktioniert. Und so habe ich dieses Problem mit der eingeschränkten Leistung in niedrigeren Auflösungen nicht, dennoch würde mich interessieren, was zu dieser Einschränkung der Leistung führt. :hmm:
 
Ich kann mich über die 3090 FE jedenfalls nicht beschweren... Da hat NV beim Kühler keine halben Sachen gemacht...
Ja, der kühler ist nicht so schlecht, wie die älteren FE und Referenzkühler, und auch besser als der mancher billig 3090. Aber die hohen Speichertemperaturen, die offenbar bereits mit etwas besseren Wärmeleitpads deutlich (20°K und mehr) gesenkt werden können, zeigen jedoch, dass Nvidia an einigen Stellen zum Nachteil des Kunden gespart hat.
 
Ein Problem, was man ja schon kurz nach dem Release der RTX 3080 feststellen konnte, dass die Ampere Grafikkarten in Form von RTX 3080 und 3090, in den Auflösungen FHD u. WQHD nicht ihr volles Potenzial ausschöpfen konnte. Mich würde nur mal interessieren woran das liegt und warum Nvidia das auch scheinbar nicht über den Treiber geregelt bekommt.

Für mich kam nur die RTX 3080 in Frage, da ich endlich meinen UHD Monitor befeuern wollte, was auch sehr gut funktioniert. Und so habe ich dieses Problem mit der eingeschränkten Leistung in niedrigeren Auflösungen nicht, dennoch würde mich interessieren, was zu dieser Einschränkung der Leistung führt. :hmm:
Das ist ein klassisches Auslastungsproblem. Die zahlreichen FP32-ALUs können unter normalen Bedingungen nicht gleichzeitig mit Arbeit versorgt werden. Also muss man die Arbeit erhöhen oder den Code speziell anpassen. Es sieht so aus, als limitiere bei Ampere der Registerplatz, aber das ist nur eine Vermutung.

Noch vor einigen Jahren war's umgekehrt, da hatte AMD ein Low-Res-Problem, etwa mit Hawaii und auch Fiji. Deren Front-End verhinderte, dass die ALUs stets vollgeladen werden. Fallen mehr Pixel pro Polygon an, wie das bei höheren Auflösungen der Fall ist, wird mehr Zeit im ALU-Teil der GPU benötigt, sodass die Gesamtauslastung ausgewogener wird. Nvidia wird das Problem der "halbgar" verdoppelten FP32-ALUs mit Gewissheit bei der Nachfolgegeneration angehen.

MfG
Raff
 
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.
In diversen anderen Threads wurde ich von "Team Red" niedergemacht weil ich etwas in der Art in den Raum gestellt habe bezüglich "10 GB könnten auch reichen bis zur nächsten / übernächsten GraKa Generation". Ich habe mich dabei eher auf RTX IO / Direct Storage bezogen, danke für die Info zu SFS.
 

Eine zusätzliche Tabelle "DLSS Modes & Performance-Scaling" mit einer Raytracing-Einstiegskarte (z. B. RTX 2060 oder RTX 2060 Super) wäre auch interessant, hier aber DLSS Q, B, P und UP mit niedrigerer Bildausgabe-Auflösung (1080p oder 1440p) und hohen Einstellungen (statt alles Ultra) testen.

Denn bei den Einstiegsmodellen kann DLSS den Unterschied zwischen unspielbar und spielbar (oder zwischen gerade so spielbar und gut spielbar) ausmachen, während bei den High-End-Modellen (wie die getestete RTX 3090) DLSS weniger wichtig ist.


 
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS).

Toll erklärt. Leider erhält das Thema viel zu wenig Aufmerksamkeit.

Ich denke, wenn SFS in 1-2 Jahren richtig kommt, wäre das genau rechtzeitig, um die aus heutiger Sicht knappe VRAM Bestückung der Ampere Karten abzufangen.

Ich vermute mal, sobald ein Entwickler wirklich anfängt Richtung next-gen zu entwickeln, wird er auch von SFS gebrauch machen. Es ist ja auch auf den Konsolen DAS beworbene Feature schlechthin und der einzige Grund, warum man PCIe SSDs verbaut hat und keine SATA SSDs.


Den ein oder anderen Entwickler wirds bestimmt noch geben, der die 8/10 GB grenze in 1440p sprengt und dabei kein SFS verwendet. Vielleicht auch mit etwas Druck von AMD... Aber das werden jetzt eben die letzten Spiele sein, bevor sich mit SFS das ganze Thema deutlich entspannt und neu bewertet werden muss.

Ich habs schonmal geschrieben. Aber ich befürchte dass AMD die 16 GB einfach nur als Verkaufsargument draufgepackt hat, obwohl sie wissen, dass es mittel-langfristig wahrscheinlich völlig unnötig und überdimensioniert ist. Das wird dann auch der Grund sein, warum Nvidia trotz der ganzen Kritik keine TI Versionen mit deutlich mehr Speicher bringt, selbst nachdem AMD Ampere mit den 16 GB Karten gekontert hat. Die wissen vermutlich dass es auch so für next-gen Titel mit SFS reichen wird. Schließlich arbeitet auch Nvidia mit AMD und Microsoft an DX12. Die wissen ganz genau was Sache ist.
 
Zuletzt bearbeitet von einem Moderator:
Toll erklärt. Leider erhält das Thema viel zu wenig Aufmerksamkeit.

Ich denke, wenn SFS in 1-2 Jahren richtig kommt, wäre das genau rechtzeitig, um die aus heutiger Sicht knappe VRAM Bestückung der Ampere Karten abzufangen.

Ich vermute mal, sobald ein Entwickler wirklich anfängt Richtung next-gen zu entwickeln, wird er auch von SFS gebrauch machen. Es ist ja auch auf den Konsolen DAS beworbene Feature schlechthin und der einzige Grund, warum man PCIe SSDs verbaut hat und keine SATA SSDs.


Den ein oder anderen Entwickler wirds bestimmt noch geben, der die 8/10 GB grenze in 1440p sprengt und dabei kein SFS verwendet. Vielleicht auch mit etwas Druck von AMD... Aber das werden jetzt eben die letzten Spiele sein, bevor sich mit SFS das ganze Thema deutlich entspannt.
Das ist derzeit nun mal extrem leise Zukunftsmusik. Bis zu einer flächendeckenden Implementierung reden wir vermutlich eher von 5+ Jahren. Bis dahin (und auch danach) werden zahlreiche Spiele erscheinen, die es mit der Optimierung nicht so genau nehmen, so wie das immer ist. Vergleiche doch mal Doom Eternal mit Ark, in Sachen Geschmeidigkeit also Butter in der Sonne mit einem Sack Kokosnüsse. Für was rüstest du auf, wenn dich der Inhalt interessiert? ;)

MfG
Raff
 
Das ist ein klassisches Auslastungsproblem. Die zahlreichen FP32-ALUs können unter normalen Bedingungen nicht gleichzeitig mit Arbeit versorgt werden. Also muss man die Arbeit erhöhen oder den Code speziell anpassen. Es sieht so aus, als limitiere bei Ampere der Registerplatz, aber das ist nur eine Vermutung.

Noch vor einigen Jahren war's umgekehrt, da hatte AMD ein Low-Res-Problem, etwa mit Hawaii und auch Fiji. Deren Front-End verhinderte, dass die ALUs stets vollgeladen werden. Fallen mehr Pixel pro Polygon an, wie das bei höheren Auflösungen der Fall ist, wird mehr Zeit im ALU-Teil der GPU benötigt, sodass die Gesamtauslastung ausgewogener wird. Nvidia wird das Problem der "halbgar" verdoppelten FP32-ALUs mit Gewissheit bei der Nachfolgegeneration angehen.

MfG
Raff
Außer Nvidia selbst (mit deren Möglichkeiten der Überwachung) wird das vermutlich auch niemand genau feststellen können... Wird aber vermutlich an mehren Faktoren liegen. SP-Auslastung, FP32/INT32 Aufteilung oder irgendein Cache der zu klein geraten ist... Was z.B. die Rasterisierer angeht, sind die Radeon's ja noch ein bischen besser aufgestellt...
 
Ich bin zwar auch kein Freund der 10GB aber man sollte auch nicht vergessen, das in Zukunft auch RTX I/O funktionieren wird. Wer weiß, vielleicht senkt das den realen VRam Verbrauch enorm sodass wirklich nur noch das im VRam ist was auch aktiv benötigt wird. Mal sehen was MS Direct Storage für den PC veröffentlicht.

Dennoch, die RTX3080 hätte einfach 12GB verdient. Punkt ^^

So sieht es leider aus. Sowas zerstört die Immersion einer Welt bei mir komplett :(
Nein Direct Sorage ersetzt keinen Vram, immer noch nicht und morgen auch nicht!
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.
Du vergleichst Äpfel mit Birnen, was du da beschreibst ersetzt in keinem Fall Vram.
In diversen anderen Threads wurde ich von "Team Red" niedergemacht weil ich etwas in der Art in den Raum gestellt habe bezüglich "10 GB könnten auch reichen bis zur nächsten / übernächsten GraKa Generation". Ich habe mich dabei eher auf RTX IO / Direct Storage bezogen, danke für die Info zu SFS.
Ja und es ist immer noch so, RTX IO/Direct Storage ändern nichts an der Vram Nutzung. Wo soll Direct Storage denn eurer Meinung nach die komprimierten Daten dekomprimieren? In der Luft?Auf der GPU?
Außerdem muss die GPU das packen/entpacken ja berechnen, nur deswegen geht das so schnell mit den Methoden.

Die Technik bringt vor allem eins, Daten schnell in den Vram. Ohne Vram, nix IO.

Das sich dieser Unsinn so lange hält, unglaublich.
 
@PCGH_Raff

Wenn es um PC exklusive Fortschritte geht würde ich dir zustimmen. Da es aber auf beiden neuen Konsolen unterstützt wird, rechne ich mit einer deutlich schnelleren Verbreitung.

Ohne SFS und MeshShader halte ich Grafik, die irgendwas mit "next-gen" zu tun hat nicht für möglich.

Ohne diese Features bleibt es grafisch weiterhin bei PS4 Spielen in 4K60 + leicht höhere Settings statt 1080p30.
Damit hätte man wenig gewonnen.


@Gurdi

Mit SFS werden nur exakt die Teile von Texturen in den VRAM gestreamt, die gerade benötigt werden.
Das ist aktuell nicht möglich es müssen immer die Texturen komplett geladen werden und sie werden auch relativ lange im VRAM behalten, weil das Streaming über die CPU langsam und performanceintesniv ist. Wird also gerade aufgrund der bisher langsamen Konsolen CPUs strikt vermieden wo nur möglich. In Zukunft wird sich das komplett ändern. Bitte zumindest ein wenig einlesen...
 
Nein Direct Sorage ersetzt keinen Vram, immer noch nicht und morgen auch nicht!

Du vergleichst Äpfel mit Birnen, was du da beschreibst ersetzt in keinem Fall Vram.

Ja und es ist immer noch so, RTX IO/Direct Storage ändern nichts an der Vram Nutzung. Wo soll Direct Storage denn eurer Meinung nach die komprimierten Daten dekomprimieren? In der Luft?Auf der GPU?
Außerdem muss die GPU das packen/entpacken ja berechnen, nur deswegen geht das so schnell mit den Methoden.

Die Technik bringt vor allem eins, Daten schnell in den Vram. Ohne Vram, nix IO.

Das sich dieser Unsinn so lange hält, unglaublich.
Hast Du seinen Screenshot angeschaut? Dieselbe Szene verbraucht dort mit SFS weniger als 1/4 des VRAM. Somit wird der VRAM deutlich weniger ausgelastet. Wieso hat das nichts mit dem Thema "VRAM zu klein bei Ampere" zu tun?

RTX IO verbessert sehr wohl das Streaming, wenn das massiv schneller geht, dann muss der VRAM die Texturen ja nicht immer alle geladen haben...
 
Mit SFS werden nur exakt die Teile von Texturen in den VRAM gestreamt, die gerade benötigt werden.
Das ist aktuell nicht möglich es müssen immer die Texturen komplett geladen werden und sie werden auch relativ lange im VRAM behalten, weil das Streaming über die CPU langsam und performanceintesniv ist. Wird also gerade aufgrund der bisher langsamen Konsolen CPUs strikt vermieden wo nur möglich. In Zukunft wird sich das komplett ändern. Bitte zumindest ein wenig einlesen...
1. Eine Konsole ist kein PC. Wir verwenden am Rechner in der Regel keinen SOC. Wir verwenden am PC auch nicht ein und den selben Ram für alles, nah klingelts?
2.Egal will schnell du streamen kannst, es ist immer noch nicht mal ansatzweise so schnell wie Vram/Cache.
3.Streamt man nur wenn es nötig ist, das ist quasi schon die Ersatzlösung. Stream doch mal deine Daten aus Ram, viel Spaß...Kein Interface ist so schnell wie Vram, die benötigten Daten passen doch heute schon nicht in den Ram, siehe Cyberpunk und das LOD des grauens.
4.Skaliert mit solchen Techniken der Verbrauch gleich mit, wenn ich schnell streamen kann dann lege ich die Texturen in hoher Qualität komprimiert ab, das führt zwangsläufig dazu das einfach mehr von allem benötigt wird.
5.Berechnet dann die GPU zusätzlich diese Vorgänge, ich will aber die GPU ja entlasten in einem Spiel, nicht zusätzlich belasten.

Hast Du seinen Screenshot angeschaut? Dieselbe Szene verbraucht dort mit SFS weniger als 1/4 des VRAM. Somit wird der VRAM deutlich weniger ausgelastet. Wieso hat das nichts mit dem Thema "VRAM zu klein bei Ampere" zu tun?

RTX IO verbessert sehr wohl das Streaming, wenn das massiv schneller geht, dann muss der VRAM die Texturen ja nicht immer alle geladen haben...
Ja super, wir haben Minecraft gestreamt, juhu.....
 
Nvidia wie immer überteuert mit zu wenig VRAM für die Zukunft oder die schnellere AMD mit massig VRAM aber schlechter Raytracing Leistung wie entscheidet man da ?

Ganz einfache Antwort: Nächste Generation
 
Das ist derzeit nun mal extrem leise Zukunftsmusik. Bis zu einer flächendeckenden Implementierung reden wir vermutlich eher von 5+ Jahren. Bis dahin (und auch danach) werden zahlreiche Spiele erscheinen, die es mit der Optimierung nicht so genau nehmen, so wie das immer ist. Vergleiche doch mal Doom Eternal mit Ark, in Sachen Geschmeidigkeit also Butter in der Sonne mit einem Sack Kokosnüsse. Für was rüstest du auf, wenn dich der Inhalt interessiert? ;)

MfG
Raff
Sagen wir, die Musik ist so mittel-leise. ;) Man muss ja auch bedenken, dass die Adaption durch die Konsolen erheblich beschleunigt wird. Die Series S wird ohne dieses Feature kaum wahre Next Gen Fidelity stemmen können, da der RAM zu klein ist, ist also in gewissermaßen abhängig von dem Feature. Das wiederum hat Einfluss auf den PC, da Microsoft's GDKs und die DX12U API es erlauben, Xbox Code zwischen PC und Xbox einfacher als bisher zu übertragen. Also 5 Jahre wird es definitiv nicht brauchen :)


Nein Direct Sorage ersetzt keinen Vram, immer noch nicht und morgen auch nicht!

Du vergleichst Äpfel mit Birnen, was du da beschreibst ersetzt in keinem Fall Vram.

Ja und es ist immer noch so, RTX IO/Direct Storage ändern nichts an der Vram Nutzung. Wo soll Direct Storage denn eurer Meinung nach die komprimierten Daten dekomprimieren? In der Luft?Auf der GPU?
Außerdem muss die GPU das packen/entpacken ja berechnen, nur deswegen geht das so schnell mit den Methoden.

Die Technik bringt vor allem eins, Daten schnell in den Vram. Ohne Vram, nix IO.

Das sich dieser Unsinn so lange hält, unglaublich.

Ich hab nie behauptet, dass diese Technologien VRAM ersetzen. Woher nimmst du diese Aussage? Richtig, DirectStorage wird helfen, Texturen deutlich schneller als bisher in den VRAM zu pumpen. Um zu verstehen, warum das helfen kann, den VRAM Bedarf zu reduzieren muss man wissen, wie heutige Spiele funktionieren.

Alle Spiele die du heute kennst, werden noch so entwickelt, dass ihr Streaming-System mit HDDs zurechtkommen muss, da sie ja auf den alten Konsolen lauffähig bleiben müssen. Das heißt selbst wenn du eine SSD im Rechner hast, nutzt es immer noch das alte Streaming-Prinzip. Erst werden die Daten mühselig auf der HDD gesucht (seek times) dann müssen sie per ziemlich langsamen Transfer zum RAM/VRAM geschickt werden. Soll heißen, wenn sich der Spieler umdreht kann eben nicht mal die Textur hinter dir von der HDD flugs in den VRAM geladen werden. Was ist also die Lösung dafür? Ganz einfach: man ladet alles was irgendwie geht in den VRAM/RAM und umschifft damit den langsam Transfer von HDD zu VRAM so weit es irgendwie geht. Entwickelt man nun einen Titel der komplett auf DirectStorage SSD Streaming aufbaut, so kann man Texturen von der SSD um viele, viele Faktoren schneller in den VRAM laden. Im Umkehrschluss heißt das, dass so viel weniger Texturen im VRAM verbleiben müssen, was den VRAM Bedarf deutlich reduziert. Kombiniert man dass dann mit deutlich effizienterem PRT (SF) so können wir deutlich bessere Texturen als es heute der Fall ist verwenden, ohne den physikalischen VRAM erhöhen zu müssen.

Richtig, natürlich ist VRAM deutlich schneller als Streaming von der SSD, aber SSD Streaming ist eben doch schnell genug, um die Texturen dann flugs von SSD zu VRAM zu laden, wenn du deine Spielfigur umdrehst. Und das ist der Game-Changer dahinter. Ich empfehle Mark Cernys Road to PS5, da hat er das extrem gut erklärt.
 
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)

60 fps mit DLSS Quality und Raytracing Beleuchtung Ultra sind mit der RTX3090 in 4K leider nicht drin. Ist man aber halt von den meisten anderen Spielen gewohnt das 60 fps mit Maximal Einstellungen geht. Keine Kompromisse heißt für mich alles auf Anschlag und 60 fps in 4K.

Ich zocke es aktuell mit DLSS ausgeglichen und Raytracing Ultra mit 50 fps, geht aber nur wenn man den Desktop auf 50 Hz stellt weil das Spiel keinen richtigen Vollbild Modus hat.

Und ich habe noch ein paar der unnötigen Einstellungen runtergedreht/abgeschaltet die optisch nichts bringen und nur Rechenzeit kosten, Farbgenauigkeit auf Mittel,Umgebungsverdeckung auf gering, Volumetrische Wolken auf aus. Damit habe ich dann zu 90% konstante 50 fps. In Innenräumen bricht es ab und zu noch ein. Mit DLSS Performance ist auch das weg, aber da ist der Qualitätseinbruch halt schon erkennbar.

Eine Zeitlang habe ich es mit 30 fps gezockt. Dann geht auch DLSS Quality und RT auf Psycho und es bleibt durchgehend bei 30 fps. Mit der Frame Interpolation des TV komme ich auch wieder auf 120 fps, aber halt mit ein paar Artefakten und etwas mehr Inputlag. Kann man auch als Option ansehen, zumal bei dem Spiel der Lag sowieso relativ egal ist.

Ich denke zudem es ist nicht unbedingt schlau wenn die Entwickler die Maximal Einstellung so auslegen das die High End Karte diese nicht mit wenigstens 50 fps in 4K hinbekommt.

Ich hätte an Stelle von CDPR die Psycho Einstellung weggelassen. Vielleicht sogar aus der RT Mittel Einstellung High gemacht und noch eine Low Einstellung hinzugefügt wo die Spiegelungen noch einen Tick pixeliger sind oder geringe Sichtweite haben. Sieht auch in Mittel noch besser aus als 99% aller anderen PC Spiele. Und wenn man High nicht kennt weiß man ja auch nicht was einem "fehlt". Also wäre auch Mittel perfekt :)

Das rechnet man den Entwickler eher höher an als "High End" Optionen die eigentlich nur eins machen. Rechenzeit verschwenden.

Aber PC Detail Stufen Menüs sind ein ewiges Drama. An sich sollte bei jeder Stufe dabei stehen wie sich Min/Max/Avg fps damit bei typischen Spielszenen ändern. Daneben ein Bild was dieses Feature optisch genau ändert.

Ersteres könnte man problemlos automatisch per Benchmark durchführen lassen. Rechnet der PC halt mal eine Nacht lang daran alle Varianten durchzuprobieren, er kann auch anzeigen ob RT eine besondere Abhängigkeit zu Welt Detail Leveln hat.

Jedenfalls, in Cyberpunk 2077 sind die Detailstufen, dafür das es ein PC optimiertes Spiel ist, imo erstaunlich schlecht gelöst.
 
1. Eine Konsole ist kein PC. Wir verwenden am Rechner in der Regel keinen SOC. Wir verwenden am PC auch nicht ein und den selben Ram für alles, nah klingelts?
2.Egal will schnell du streamen kannst, es ist immer noch nicht mal ansatzweise so schnell wie Vram/Cache.
3.Streamt man nur wenn es nötig ist, das ist quasi schon die Ersatzlösung. Stream doch mal deine Daten aus Ram, viel Spaß...Kein Interface ist so schnell wie Vram, die benötigten Daten passen doch heute schon nicht in den Ram, siehe Cyberpunk und das LOD des grauens.
4.Skaliert mit solchen Techniken der Verbrauch gleich mit, wenn ich schnell streamen kann dann lege ich die Texturen in hoher Qualität komprimiert ab, das führt zwangsläufig dazu das einfach mehr von allem benötigt wird.
5.Berechnet dann die GPU zusätzlich diese Vorgänge, ich will aber die GPU ja entlasten in einem Spiel, nicht zusätzlich belasten.


Ja super, wir haben Minecraft gestreamt, juhu.....

Das Problem mit den sichtbaren LoD Stufen wird mit den MeshShadern angegangen.
Hier wieder der Appell. Lies dich um gottes Willen mal ein!

Das gesamte f*ckin Memorymanagement wird hier umgebaut. :ugly: Versteht denn hier wirklich keiner welche Auswirkungen das hat??!

Solche gravierenden Änderungen/Fortschritte gabs zuletzt 2007 als unified Shader eingeführt wurden.

Ich werd jetzt auch ganz sicher nicht versuchen jeden Mist zu erklären, wenn man nur mal etwas googlen bräuchte. Im DirectX developer blog ist ja schonmal vieles beschrieben. Aber wem erzähle ich das. Ihr seid ja alle sehr versiert, ja..
 
Das Problem mit den sichtbaren LoD Stufen wird mit den MeshShadern angegangen.
Hier wieder der Appell. Lies dich um gottes Willen mal ein!

Das gesamte f*ckin Memorymanagement wird hier umgebaut. :ugly: Versteht denn hier wirklich keiner welche Auswirkungen das hat??!

Solche gravierenden Änderungen/Fortschritte gabs zuletzt 2007 als unified Shader eingeführt wurden.

Ich werd jetzt auch ganz sicher nicht versuchen jeden Mist zu erklären, wenn man nur mal etwas googlen bräuchte. Im DirectX developer blog ist ja schonmal vieles beschrieben. Aber wem erzähle ich das. Ihr seid ja alle sehr versiert, ja..
Ja klar, wir laden alle Texturen von der Platte, skalieren dann die Auflösung auf 720p mit KI und verwenden dann MeshShading um nur die nicht fokussierten Bereiche dann auf 320p zu reduzieren.

Alles total easy.
so kann man Texturen von der SSD um viele, viele Faktoren schneller in den VRAM laden
Das ist ja richtig was du da beschreibst, aber wenn du dich in einem Spiel umdrehst dann müssen die Daten im Cache oder im Vram liegen. Kein Streaming ist schnell genug dafür. Du kannst maximal die Daten reduzieren indem du Bereiche in sagen wir mal OpenWorld Titel in kleinere Häppchen packst. Das wars dann aber auch.
 
Zurück