• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

ToZo1

Freizeitschrauber(in)
Ohne RT und DLSS sieht CB2077 mit meiner 2080Ti OC auf 5120x1440 bei passender Framerate immer noch super aus. Damit kann ich zufrieden leben, solange die aktuelle HighEnd-Kartengeneration um bis zu 3000,-€ -also 6000,-DM kostet und nebenher kaum noch stromtechnisch und thermisch beherrschbar ist. Ich könnte wetten... bei den Arbeitstemperaturen um die 100°C werden das nächste Jahr bestimmt reihenweise 3080er und 3090er an Speicherchipausfällen wegen ungewollter Diffusion frühzeitig verrecken. Und der Sommer kommt auch bald...
 

dampflokfreund

Freizeitschrauber(in)
Danke für die Ausführung :daumen:
Hoffentlich kommen bald auch mal solche Spiele ^^
Gerne :)

Ich rechne allerdings nicht vor 2022 damit, da es notwendig ist, das Texturenstreaming wie wir es in heutigen Titeln kennen, komplett umzukrempeln und auf SSD-Streaming und SFS angepasst werden muss. So lange die alten Konsolen noch mitgezogen werden, wird das also nix. Wahrlich ein Klotz am Bein.

Ich könnte mir aber vorstellen dass ein paar innovative Entwickler in der Zwischenzweit eine höhere Texturstufe anbieten werden, die nur auf DX12U kompatiblen GPUs aktivierbar ist (also Turing, Ampere und RDNA2) und auch den VRAM-Bedarf auf diesen reduziert.

Das schöne ist ja auch, dass es deshalb nicht nur bessere Texturqualität sondern auch ruhigere Frametimes und weniger Pop-In ermöglicht! Ich glaube, Cyberpunk würde dieses Feature sehr gut tun. DX12U nutzt es ja schon, aber leider nur für Raytracing.
 
Zuletzt bearbeitet:

zotac2012

Software-Overclocker(in)
Die RTX 3070 hingegen hat Probleme, in niedrigen Auflösungen ihre Leistung voll auf die Straße zu bekommen und bremst somit auch die CPU auf ein niedrigeres Performance-Niveau aus.
Ein Problem, was man ja schon kurz nach dem Release der RTX 3080 feststellen konnte, dass die Ampere Grafikkarten in Form von RTX 3080 und 3090, in den Auflösungen FHD u. WQHD nicht ihr volles Potenzial ausschöpfen konnte. Mich würde nur mal interessieren woran das liegt und warum Nvidia das auch scheinbar nicht über den Treiber geregelt bekommt.

Für mich kam nur die RTX 3080 in Frage, da ich endlich meinen UHD Monitor befeuern wollte, was auch sehr gut funktioniert. Und so habe ich dieses Problem mit der eingeschränkten Leistung in niedrigeren Auflösungen nicht, dennoch würde mich interessieren, was zu dieser Einschränkung der Leistung führt. :hmm:
 

Birdy84

Volt-Modder(in)
Ich kann mich über die 3090 FE jedenfalls nicht beschweren... Da hat NV beim Kühler keine halben Sachen gemacht...
Ja, der kühler ist nicht so schlecht, wie die älteren FE und Referenzkühler, und auch besser als der mancher billig 3090. Aber die hohen Speichertemperaturen, die offenbar bereits mit etwas besseren Wärmeleitpads deutlich (20°K und mehr) gesenkt werden können, zeigen jedoch, dass Nvidia an einigen Stellen zum Nachteil des Kunden gespart hat.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ein Problem, was man ja schon kurz nach dem Release der RTX 3080 feststellen konnte, dass die Ampere Grafikkarten in Form von RTX 3080 und 3090, in den Auflösungen FHD u. WQHD nicht ihr volles Potenzial ausschöpfen konnte. Mich würde nur mal interessieren woran das liegt und warum Nvidia das auch scheinbar nicht über den Treiber geregelt bekommt.

Für mich kam nur die RTX 3080 in Frage, da ich endlich meinen UHD Monitor befeuern wollte, was auch sehr gut funktioniert. Und so habe ich dieses Problem mit der eingeschränkten Leistung in niedrigeren Auflösungen nicht, dennoch würde mich interessieren, was zu dieser Einschränkung der Leistung führt. :hmm:
Das ist ein klassisches Auslastungsproblem. Die zahlreichen FP32-ALUs können unter normalen Bedingungen nicht gleichzeitig mit Arbeit versorgt werden. Also muss man die Arbeit erhöhen oder den Code speziell anpassen. Es sieht so aus, als limitiere bei Ampere der Registerplatz, aber das ist nur eine Vermutung.

Noch vor einigen Jahren war's umgekehrt, da hatte AMD ein Low-Res-Problem, etwa mit Hawaii und auch Fiji. Deren Front-End verhinderte, dass die ALUs stets vollgeladen werden. Fallen mehr Pixel pro Polygon an, wie das bei höheren Auflösungen der Fall ist, wird mehr Zeit im ALU-Teil der GPU benötigt, sodass die Gesamtauslastung ausgewogener wird. Nvidia wird das Problem der "halbgar" verdoppelten FP32-ALUs mit Gewissheit bei der Nachfolgegeneration angehen.

MfG
Raff
 

raPid-81

Freizeitschrauber(in)
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.
In diversen anderen Threads wurde ich von "Team Red" niedergemacht weil ich etwas in der Art in den Raum gestellt habe bezüglich "10 GB könnten auch reichen bis zur nächsten / übernächsten GraKa Generation". Ich habe mich dabei eher auf RTX IO / Direct Storage bezogen, danke für die Info zu SFS.
 

Cohen

PC-Selbstbauer(in)

Eine zusätzliche Tabelle "DLSS Modes & Performance-Scaling" mit einer Raytracing-Einstiegskarte (z. B. RTX 2060 oder RTX 2060 Super) wäre auch interessant, hier aber DLSS Q, B, P und UP mit niedrigerer Bildausgabe-Auflösung (1080p oder 1440p) und hohen Einstellungen (statt alles Ultra) testen.

Denn bei den Einstiegsmodellen kann DLSS den Unterschied zwischen unspielbar und spielbar (oder zwischen gerade so spielbar und gut spielbar) ausmachen, während bei den High-End-Modellen (wie die getestete RTX 3090) DLSS weniger wichtig ist.


 
T

-THOR-

Guest
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS).

Toll erklärt. Leider erhält das Thema viel zu wenig Aufmerksamkeit.

Ich denke, wenn SFS in 1-2 Jahren richtig kommt, wäre das genau rechtzeitig, um die aus heutiger Sicht knappe VRAM Bestückung der Ampere Karten abzufangen.

Ich vermute mal, sobald ein Entwickler wirklich anfängt Richtung next-gen zu entwickeln, wird er auch von SFS gebrauch machen. Es ist ja auch auf den Konsolen DAS beworbene Feature schlechthin und der einzige Grund, warum man PCIe SSDs verbaut hat und keine SATA SSDs.


Den ein oder anderen Entwickler wirds bestimmt noch geben, der die 8/10 GB grenze in 1440p sprengt und dabei kein SFS verwendet. Vielleicht auch mit etwas Druck von AMD... Aber das werden jetzt eben die letzten Spiele sein, bevor sich mit SFS das ganze Thema deutlich entspannt und neu bewertet werden muss.

Ich habs schonmal geschrieben. Aber ich befürchte dass AMD die 16 GB einfach nur als Verkaufsargument draufgepackt hat, obwohl sie wissen, dass es mittel-langfristig wahrscheinlich völlig unnötig und überdimensioniert ist. Das wird dann auch der Grund sein, warum Nvidia trotz der ganzen Kritik keine TI Versionen mit deutlich mehr Speicher bringt, selbst nachdem AMD Ampere mit den 16 GB Karten gekontert hat. Die wissen vermutlich dass es auch so für next-gen Titel mit SFS reichen wird. Schließlich arbeitet auch Nvidia mit AMD und Microsoft an DX12. Die wissen ganz genau was Sache ist.
 
Zuletzt bearbeitet von einem Moderator:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Toll erklärt. Leider erhält das Thema viel zu wenig Aufmerksamkeit.

Ich denke, wenn SFS in 1-2 Jahren richtig kommt, wäre das genau rechtzeitig, um die aus heutiger Sicht knappe VRAM Bestückung der Ampere Karten abzufangen.

Ich vermute mal, sobald ein Entwickler wirklich anfängt Richtung next-gen zu entwickeln, wird er auch von SFS gebrauch machen. Es ist ja auch auf den Konsolen DAS beworbene Feature schlechthin und der einzige Grund, warum man PCIe SSDs verbaut hat und keine SATA SSDs.


Den ein oder anderen Entwickler wirds bestimmt noch geben, der die 8/10 GB grenze in 1440p sprengt und dabei kein SFS verwendet. Vielleicht auch mit etwas Druck von AMD... Aber das werden jetzt eben die letzten Spiele sein, bevor sich mit SFS das ganze Thema deutlich entspannt.
Das ist derzeit nun mal extrem leise Zukunftsmusik. Bis zu einer flächendeckenden Implementierung reden wir vermutlich eher von 5+ Jahren. Bis dahin (und auch danach) werden zahlreiche Spiele erscheinen, die es mit der Optimierung nicht so genau nehmen, so wie das immer ist. Vergleiche doch mal Doom Eternal mit Ark, in Sachen Geschmeidigkeit also Butter in der Sonne mit einem Sack Kokosnüsse. Für was rüstest du auf, wenn dich der Inhalt interessiert? ;)

MfG
Raff
 

DragonX1979

PC-Selbstbauer(in)
Das ist ein klassisches Auslastungsproblem. Die zahlreichen FP32-ALUs können unter normalen Bedingungen nicht gleichzeitig mit Arbeit versorgt werden. Also muss man die Arbeit erhöhen oder den Code speziell anpassen. Es sieht so aus, als limitiere bei Ampere der Registerplatz, aber das ist nur eine Vermutung.

Noch vor einigen Jahren war's umgekehrt, da hatte AMD ein Low-Res-Problem, etwa mit Hawaii und auch Fiji. Deren Front-End verhinderte, dass die ALUs stets vollgeladen werden. Fallen mehr Pixel pro Polygon an, wie das bei höheren Auflösungen der Fall ist, wird mehr Zeit im ALU-Teil der GPU benötigt, sodass die Gesamtauslastung ausgewogener wird. Nvidia wird das Problem der "halbgar" verdoppelten FP32-ALUs mit Gewissheit bei der Nachfolgegeneration angehen.

MfG
Raff
Außer Nvidia selbst (mit deren Möglichkeiten der Überwachung) wird das vermutlich auch niemand genau feststellen können... Wird aber vermutlich an mehren Faktoren liegen. SP-Auslastung, FP32/INT32 Aufteilung oder irgendein Cache der zu klein geraten ist... Was z.B. die Rasterisierer angeht, sind die Radeon's ja noch ein bischen besser aufgestellt...
 

Gurdi

Kokü-Junkie (m/w)
Ich bin zwar auch kein Freund der 10GB aber man sollte auch nicht vergessen, das in Zukunft auch RTX I/O funktionieren wird. Wer weiß, vielleicht senkt das den realen VRam Verbrauch enorm sodass wirklich nur noch das im VRam ist was auch aktiv benötigt wird. Mal sehen was MS Direct Storage für den PC veröffentlicht.

Dennoch, die RTX3080 hätte einfach 12GB verdient. Punkt ^^

So sieht es leider aus. Sowas zerstört die Immersion einer Welt bei mir komplett :(
Nein Direct Sorage ersetzt keinen Vram, immer noch nicht und morgen auch nicht!
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.
Du vergleichst Äpfel mit Birnen, was du da beschreibst ersetzt in keinem Fall Vram.
In diversen anderen Threads wurde ich von "Team Red" niedergemacht weil ich etwas in der Art in den Raum gestellt habe bezüglich "10 GB könnten auch reichen bis zur nächsten / übernächsten GraKa Generation". Ich habe mich dabei eher auf RTX IO / Direct Storage bezogen, danke für die Info zu SFS.
Ja und es ist immer noch so, RTX IO/Direct Storage ändern nichts an der Vram Nutzung. Wo soll Direct Storage denn eurer Meinung nach die komprimierten Daten dekomprimieren? In der Luft?Auf der GPU?
Außerdem muss die GPU das packen/entpacken ja berechnen, nur deswegen geht das so schnell mit den Methoden.

Die Technik bringt vor allem eins, Daten schnell in den Vram. Ohne Vram, nix IO.

Das sich dieser Unsinn so lange hält, unglaublich.
 
T

-THOR-

Guest
@PCGH_Raff

Wenn es um PC exklusive Fortschritte geht würde ich dir zustimmen. Da es aber auf beiden neuen Konsolen unterstützt wird, rechne ich mit einer deutlich schnelleren Verbreitung.

Ohne SFS und MeshShader halte ich Grafik, die irgendwas mit "next-gen" zu tun hat nicht für möglich.

Ohne diese Features bleibt es grafisch weiterhin bei PS4 Spielen in 4K60 + leicht höhere Settings statt 1080p30.
Damit hätte man wenig gewonnen.


@Gurdi

Mit SFS werden nur exakt die Teile von Texturen in den VRAM gestreamt, die gerade benötigt werden.
Das ist aktuell nicht möglich es müssen immer die Texturen komplett geladen werden und sie werden auch relativ lange im VRAM behalten, weil das Streaming über die CPU langsam und performanceintesniv ist. Wird also gerade aufgrund der bisher langsamen Konsolen CPUs strikt vermieden wo nur möglich. In Zukunft wird sich das komplett ändern. Bitte zumindest ein wenig einlesen...
 

raPid-81

Freizeitschrauber(in)
Nein Direct Sorage ersetzt keinen Vram, immer noch nicht und morgen auch nicht!

Du vergleichst Äpfel mit Birnen, was du da beschreibst ersetzt in keinem Fall Vram.

Ja und es ist immer noch so, RTX IO/Direct Storage ändern nichts an der Vram Nutzung. Wo soll Direct Storage denn eurer Meinung nach die komprimierten Daten dekomprimieren? In der Luft?Auf der GPU?
Außerdem muss die GPU das packen/entpacken ja berechnen, nur deswegen geht das so schnell mit den Methoden.

Die Technik bringt vor allem eins, Daten schnell in den Vram. Ohne Vram, nix IO.

Das sich dieser Unsinn so lange hält, unglaublich.
Hast Du seinen Screenshot angeschaut? Dieselbe Szene verbraucht dort mit SFS weniger als 1/4 des VRAM. Somit wird der VRAM deutlich weniger ausgelastet. Wieso hat das nichts mit dem Thema "VRAM zu klein bei Ampere" zu tun?

RTX IO verbessert sehr wohl das Streaming, wenn das massiv schneller geht, dann muss der VRAM die Texturen ja nicht immer alle geladen haben...
 

Gurdi

Kokü-Junkie (m/w)
Mit SFS werden nur exakt die Teile von Texturen in den VRAM gestreamt, die gerade benötigt werden.
Das ist aktuell nicht möglich es müssen immer die Texturen komplett geladen werden und sie werden auch relativ lange im VRAM behalten, weil das Streaming über die CPU langsam und performanceintesniv ist. Wird also gerade aufgrund der bisher langsamen Konsolen CPUs strikt vermieden wo nur möglich. In Zukunft wird sich das komplett ändern. Bitte zumindest ein wenig einlesen...
1. Eine Konsole ist kein PC. Wir verwenden am Rechner in der Regel keinen SOC. Wir verwenden am PC auch nicht ein und den selben Ram für alles, nah klingelts?
2.Egal will schnell du streamen kannst, es ist immer noch nicht mal ansatzweise so schnell wie Vram/Cache.
3.Streamt man nur wenn es nötig ist, das ist quasi schon die Ersatzlösung. Stream doch mal deine Daten aus Ram, viel Spaß...Kein Interface ist so schnell wie Vram, die benötigten Daten passen doch heute schon nicht in den Ram, siehe Cyberpunk und das LOD des grauens.
4.Skaliert mit solchen Techniken der Verbrauch gleich mit, wenn ich schnell streamen kann dann lege ich die Texturen in hoher Qualität komprimiert ab, das führt zwangsläufig dazu das einfach mehr von allem benötigt wird.
5.Berechnet dann die GPU zusätzlich diese Vorgänge, ich will aber die GPU ja entlasten in einem Spiel, nicht zusätzlich belasten.

Hast Du seinen Screenshot angeschaut? Dieselbe Szene verbraucht dort mit SFS weniger als 1/4 des VRAM. Somit wird der VRAM deutlich weniger ausgelastet. Wieso hat das nichts mit dem Thema "VRAM zu klein bei Ampere" zu tun?

RTX IO verbessert sehr wohl das Streaming, wenn das massiv schneller geht, dann muss der VRAM die Texturen ja nicht immer alle geladen haben...
Ja super, wir haben Minecraft gestreamt, juhu.....
 

HyperBeast

Freizeitschrauber(in)
Nvidia wie immer überteuert mit zu wenig VRAM für die Zukunft oder die schnellere AMD mit massig VRAM aber schlechter Raytracing Leistung wie entscheidet man da ?

Ganz einfache Antwort: Nächste Generation
 

dampflokfreund

Freizeitschrauber(in)
Das ist derzeit nun mal extrem leise Zukunftsmusik. Bis zu einer flächendeckenden Implementierung reden wir vermutlich eher von 5+ Jahren. Bis dahin (und auch danach) werden zahlreiche Spiele erscheinen, die es mit der Optimierung nicht so genau nehmen, so wie das immer ist. Vergleiche doch mal Doom Eternal mit Ark, in Sachen Geschmeidigkeit also Butter in der Sonne mit einem Sack Kokosnüsse. Für was rüstest du auf, wenn dich der Inhalt interessiert? ;)

MfG
Raff
Sagen wir, die Musik ist so mittel-leise. ;) Man muss ja auch bedenken, dass die Adaption durch die Konsolen erheblich beschleunigt wird. Die Series S wird ohne dieses Feature kaum wahre Next Gen Fidelity stemmen können, da der RAM zu klein ist, ist also in gewissermaßen abhängig von dem Feature. Das wiederum hat Einfluss auf den PC, da Microsoft's GDKs und die DX12U API es erlauben, Xbox Code zwischen PC und Xbox einfacher als bisher zu übertragen. Also 5 Jahre wird es definitiv nicht brauchen :)


Nein Direct Sorage ersetzt keinen Vram, immer noch nicht und morgen auch nicht!

Du vergleichst Äpfel mit Birnen, was du da beschreibst ersetzt in keinem Fall Vram.

Ja und es ist immer noch so, RTX IO/Direct Storage ändern nichts an der Vram Nutzung. Wo soll Direct Storage denn eurer Meinung nach die komprimierten Daten dekomprimieren? In der Luft?Auf der GPU?
Außerdem muss die GPU das packen/entpacken ja berechnen, nur deswegen geht das so schnell mit den Methoden.

Die Technik bringt vor allem eins, Daten schnell in den Vram. Ohne Vram, nix IO.

Das sich dieser Unsinn so lange hält, unglaublich.

Ich hab nie behauptet, dass diese Technologien VRAM ersetzen. Woher nimmst du diese Aussage? Richtig, DirectStorage wird helfen, Texturen deutlich schneller als bisher in den VRAM zu pumpen. Um zu verstehen, warum das helfen kann, den VRAM Bedarf zu reduzieren muss man wissen, wie heutige Spiele funktionieren.

Alle Spiele die du heute kennst, werden noch so entwickelt, dass ihr Streaming-System mit HDDs zurechtkommen muss, da sie ja auf den alten Konsolen lauffähig bleiben müssen. Das heißt selbst wenn du eine SSD im Rechner hast, nutzt es immer noch das alte Streaming-Prinzip. Erst werden die Daten mühselig auf der HDD gesucht (seek times) dann müssen sie per ziemlich langsamen Transfer zum RAM/VRAM geschickt werden. Soll heißen, wenn sich der Spieler umdreht kann eben nicht mal die Textur hinter dir von der HDD flugs in den VRAM geladen werden. Was ist also die Lösung dafür? Ganz einfach: man ladet alles was irgendwie geht in den VRAM/RAM und umschifft damit den langsam Transfer von HDD zu VRAM so weit es irgendwie geht. Entwickelt man nun einen Titel der komplett auf DirectStorage SSD Streaming aufbaut, so kann man Texturen von der SSD um viele, viele Faktoren schneller in den VRAM laden. Im Umkehrschluss heißt das, dass so viel weniger Texturen im VRAM verbleiben müssen, was den VRAM Bedarf deutlich reduziert. Kombiniert man dass dann mit deutlich effizienterem PRT (SF) so können wir deutlich bessere Texturen als es heute der Fall ist verwenden, ohne den physikalischen VRAM erhöhen zu müssen.

Richtig, natürlich ist VRAM deutlich schneller als Streaming von der SSD, aber SSD Streaming ist eben doch schnell genug, um die Texturen dann flugs von SSD zu VRAM zu laden, wenn du deine Spielfigur umdrehst. Und das ist der Game-Changer dahinter. Ich empfehle Mark Cernys Road to PS5, da hat er das extrem gut erklärt.
 

aragon2000

Kabelverknoter(in)
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)

60 fps mit DLSS Quality und Raytracing Beleuchtung Ultra sind mit der RTX3090 in 4K leider nicht drin. Ist man aber halt von den meisten anderen Spielen gewohnt das 60 fps mit Maximal Einstellungen geht. Keine Kompromisse heißt für mich alles auf Anschlag und 60 fps in 4K.

Ich zocke es aktuell mit DLSS ausgeglichen und Raytracing Ultra mit 50 fps, geht aber nur wenn man den Desktop auf 50 Hz stellt weil das Spiel keinen richtigen Vollbild Modus hat.

Und ich habe noch ein paar der unnötigen Einstellungen runtergedreht/abgeschaltet die optisch nichts bringen und nur Rechenzeit kosten, Farbgenauigkeit auf Mittel,Umgebungsverdeckung auf gering, Volumetrische Wolken auf aus. Damit habe ich dann zu 90% konstante 50 fps. In Innenräumen bricht es ab und zu noch ein. Mit DLSS Performance ist auch das weg, aber da ist der Qualitätseinbruch halt schon erkennbar.

Eine Zeitlang habe ich es mit 30 fps gezockt. Dann geht auch DLSS Quality und RT auf Psycho und es bleibt durchgehend bei 30 fps. Mit der Frame Interpolation des TV komme ich auch wieder auf 120 fps, aber halt mit ein paar Artefakten und etwas mehr Inputlag. Kann man auch als Option ansehen, zumal bei dem Spiel der Lag sowieso relativ egal ist.

Ich denke zudem es ist nicht unbedingt schlau wenn die Entwickler die Maximal Einstellung so auslegen das die High End Karte diese nicht mit wenigstens 50 fps in 4K hinbekommt.

Ich hätte an Stelle von CDPR die Psycho Einstellung weggelassen. Vielleicht sogar aus der RT Mittel Einstellung High gemacht und noch eine Low Einstellung hinzugefügt wo die Spiegelungen noch einen Tick pixeliger sind oder geringe Sichtweite haben. Sieht auch in Mittel noch besser aus als 99% aller anderen PC Spiele. Und wenn man High nicht kennt weiß man ja auch nicht was einem "fehlt". Also wäre auch Mittel perfekt :)

Das rechnet man den Entwickler eher höher an als "High End" Optionen die eigentlich nur eins machen. Rechenzeit verschwenden.

Aber PC Detail Stufen Menüs sind ein ewiges Drama. An sich sollte bei jeder Stufe dabei stehen wie sich Min/Max/Avg fps damit bei typischen Spielszenen ändern. Daneben ein Bild was dieses Feature optisch genau ändert.

Ersteres könnte man problemlos automatisch per Benchmark durchführen lassen. Rechnet der PC halt mal eine Nacht lang daran alle Varianten durchzuprobieren, er kann auch anzeigen ob RT eine besondere Abhängigkeit zu Welt Detail Leveln hat.

Jedenfalls, in Cyberpunk 2077 sind die Detailstufen, dafür das es ein PC optimiertes Spiel ist, imo erstaunlich schlecht gelöst.
 
T

-THOR-

Guest
1. Eine Konsole ist kein PC. Wir verwenden am Rechner in der Regel keinen SOC. Wir verwenden am PC auch nicht ein und den selben Ram für alles, nah klingelts?
2.Egal will schnell du streamen kannst, es ist immer noch nicht mal ansatzweise so schnell wie Vram/Cache.
3.Streamt man nur wenn es nötig ist, das ist quasi schon die Ersatzlösung. Stream doch mal deine Daten aus Ram, viel Spaß...Kein Interface ist so schnell wie Vram, die benötigten Daten passen doch heute schon nicht in den Ram, siehe Cyberpunk und das LOD des grauens.
4.Skaliert mit solchen Techniken der Verbrauch gleich mit, wenn ich schnell streamen kann dann lege ich die Texturen in hoher Qualität komprimiert ab, das führt zwangsläufig dazu das einfach mehr von allem benötigt wird.
5.Berechnet dann die GPU zusätzlich diese Vorgänge, ich will aber die GPU ja entlasten in einem Spiel, nicht zusätzlich belasten.


Ja super, wir haben Minecraft gestreamt, juhu.....

Das Problem mit den sichtbaren LoD Stufen wird mit den MeshShadern angegangen.
Hier wieder der Appell. Lies dich um gottes Willen mal ein!

Das gesamte f*ckin Memorymanagement wird hier umgebaut. :ugly: Versteht denn hier wirklich keiner welche Auswirkungen das hat??!

Solche gravierenden Änderungen/Fortschritte gabs zuletzt 2007 als unified Shader eingeführt wurden.

Ich werd jetzt auch ganz sicher nicht versuchen jeden Mist zu erklären, wenn man nur mal etwas googlen bräuchte. Im DirectX developer blog ist ja schonmal vieles beschrieben. Aber wem erzähle ich das. Ihr seid ja alle sehr versiert, ja..
 

Gurdi

Kokü-Junkie (m/w)
Das Problem mit den sichtbaren LoD Stufen wird mit den MeshShadern angegangen.
Hier wieder der Appell. Lies dich um gottes Willen mal ein!

Das gesamte f*ckin Memorymanagement wird hier umgebaut. :ugly: Versteht denn hier wirklich keiner welche Auswirkungen das hat??!

Solche gravierenden Änderungen/Fortschritte gabs zuletzt 2007 als unified Shader eingeführt wurden.

Ich werd jetzt auch ganz sicher nicht versuchen jeden Mist zu erklären, wenn man nur mal etwas googlen bräuchte. Im DirectX developer blog ist ja schonmal vieles beschrieben. Aber wem erzähle ich das. Ihr seid ja alle sehr versiert, ja..
Ja klar, wir laden alle Texturen von der Platte, skalieren dann die Auflösung auf 720p mit KI und verwenden dann MeshShading um nur die nicht fokussierten Bereiche dann auf 320p zu reduzieren.

Alles total easy.
so kann man Texturen von der SSD um viele, viele Faktoren schneller in den VRAM laden
Das ist ja richtig was du da beschreibst, aber wenn du dich in einem Spiel umdrehst dann müssen die Daten im Cache oder im Vram liegen. Kein Streaming ist schnell genug dafür. Du kannst maximal die Daten reduzieren indem du Bereiche in sagen wir mal OpenWorld Titel in kleinere Häppchen packst. Das wars dann aber auch.
 

ChrisMK72

PCGH-Community-Veteran(in)
Erst mal danke für die ausführlichen Tests.

Also ich finde es hat sich nicht viel verändert.

Generell scheint es weiterhin keine schlechte Idee zu sein, dem Game weitere Entwicklungszeit(und ein paar hoffentlich gute DLCs) zu gönnen, bevor man es durchspielt und RT erscheint immer noch als frühe Luxustestspielerei, die von den Massen nicht genutzt wird.
Insbesondere wenn man auf flüssige fps (60+) steht und das RT auch maximal genießen möchte. Bisher isses ja eh noch recht sparsam eingesetzt.

Mal schauen, wann es sich weiter im mainstream verbreitet.

Also kurz: Im Westen nichts Neues.
 

owned139

BIOS-Overclocker(in)
Das ist ja richtig was du da beschreibst, aber wenn du dich in einem Spiel umdrehst dann müssen die Daten im Cache oder im Vram liegen. Kein Streaming ist schnell genug dafür. Du kannst maximal die Daten reduzieren indem du Bereiche in sagen wir mal OpenWorld Titel in kleinere Häppchen packst. Das wars dann aber auch.
M$ und Nvidia werden schon wissen, was sie tun. Die haben ne Ecke mehr Ahnung als du und ich zusammen ;)
 

Gurdi

Kokü-Junkie (m/w)
M$ und Nvidia werden schon wissen, was sie tun. Die haben ne Ecke mehr Ahnung als du und ich zusammen ;)
Ja richtig,wenn Nvidia wüsste das man sich damit Vram sparen kann dann würde man das auch klar kommunizieren, die sind ja nicht blöd. Man hat es in der Präsi geschickt vermarktet, so das die Leute glaubten das man sich damit Vram spart ohne das NV das behauptet hätte. Geschickt gemacht, muss man Ihnen lassen.
 

mannefix

Software-Overclocker(in)
Danke für den Bericht! PCGH!!

Am meisten ärgert mich die NVidia Werbung. Da wird suggeriert, dass man mit einer RTX 3000er Cyberpunk locker "auf Anschlag" spielen kann.

Dank PCGH kommt jetzt raus: Spielbar mit Ultra RT in 4K mit 60 FPS nur mit RTX 3090 und DSSL (Performance Mode).

"Angepinkelt"hat sich CD Project eigentlich nur mit seiner Nvidia Strategie (Nvidia exclusiver Titel, AMD mal erstmal ohne RT).
Für die Bugs im Spiel bin ich nicht so sauer. Das ist halt ein riesiges Project und auf dem PC lief es dafür ok.
Als die Stimmung dann aber kippte, konnte CD Project diese arrogante Politik mit Nvidia nicht mehr fahren. Da hat man schnell RT für AMD gemacht.

Nvidia verlangt nun für seine Karten 2500 Euro. Schön, sind wir endlich angekommen wo NVidia hinwollte. Dank Werbung und aggressiver Politik (10GB sind toll!!)....

Aber was bedeuted das für uns Zocker? Erstmal ist Konkurrenz für uns gut. Wir sind eine Gemeinschaft, oder sollten es sein. Geschäftemacher und "Farmer" gehören nicht dazu.

UND der Wind wird sich zu Streaming (Cloud) in Spielen (Nvidia Now, Stadia, etc.) drehen. Weil die Zocker und Entwickler wollen richtig hübsche Spiele haben, die die dedizierten Grafikkarten nicht in 4 K "bringen".
 

raPid-81

Freizeitschrauber(in)
Ja richtig,wenn Nvidia wüsste das man sich damit Vram sparen kann dann würde man das auch klar kommunizieren, die sind ja nicht blöd. Man hat es in der Präsi geschickt vermarktet, so das die Leute glaubten das man sich damit Vram spart ohne das NV das behauptet hätte. Geschickt gemacht, muss man Ihnen lassen.
Tatsächlich spricht Mark Cerny GENAU davon in der PS5 Präsentation... Link

SSD Real-Time-Streaming, deswegen hat die PS5 auch nur 16GB GDDR6 für das gesamte System. Wohlgemerkt Shared Memory, also RAM + VRAM.
"Angepinkelt"hat sich CD Project eigentlich nur mit seiner Nvidia Strategie (Nvidia exclusiver Titel, AMD mal erstmal ohne RT).
Für die Bugs im Spiel bin ich nicht so sauer. Das ist halt ein riesiges Project und auf dem PC lief es dafür ok.
Als die Stimmung dann aber kippte, konnte CD Project diese arrogante Politik mit Nvidia nicht mehr fahren. Da hat man schnell RT für AMD gemacht.
CP auf AMD erst mal ohne RT, stimmt. Mit RT bringt das jetzt aber auch nicht wirklich was. Die Performance ist schon ab RT Medium quasi unspielbar bei FullHD auf den RX 6000 Karten.
Nvidia verlangt nun für seine Karten 2500 Euro. Schön, sind wir endlich angekommen wo NVidia hinwollte. Dank Werbung und aggressiver Politik (10GB sind toll!!)....
Falsch. NV verkauft z.B. die 3080 FE weiterhin für 719,-. Die Scalper Preise sollte man da nicht heranziehen, die macht der Markt und nicht Nvidia. Außerdem sind die aktuellen Scalper Preise bei AMD genauso hoch.

Aber was bedeuted das für uns Zocker? Erstmal ist Konkurrenz für uns gut. Wir sind eine Gemeinschaft, oder sollten es sein. Geschäftemacher und "Farmer" gehören nicht dazu.

UND der Wind wird sich zu Streaming (Cloud) in Spielen (Nvidia Now, Stadia, etc.) drehen. Weil die Zocker und Entwickler wollen richtig hübsche Spiele haben, die die dedizierten Grafikkarten nicht in 4 K "bringen".
Dafür müssen erstmal ein Großteil der Zocker Glasfaser / Multikabel Anschlüsse haben, sonst wird das nix mit 4K Streaming wenn die Mutti nebenbei Netflix guckt. Das wird noch Jahre dauern.
 
Zuletzt bearbeitet:

DasUnding

Komplett-PC-Aufrüster(in)
Wann fixen die mal diese Grieselreflexionen? Wenn man kein DLSS hat, kann man das kaum ertragen, ich musste es mittlerweile ausschalten.

Selbst in 4k Ultra grieseln die Reflexionen so, als ob man Raytracing ungefiltert auf 320x200 hätte.
 

restX3

Software-Overclocker(in)
Ich glaub die haben gar nix gepachted. Schaut euch das mal an. Genauso sehe ich es auch.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
Dass die Sandbox Schrott ist, ist ja nichts Neues. Bin eher schockiert was für eine Geisterstadt das auf Konsole ist. Da ist ja gar nichts los auf den Straßen.
 

Daggy82

PC-Selbstbauer(in)
Da die Konsolen ja die Richtung vorgeben was zukünftig in Spielen so implementiert wird oder nicht und die Konsolen und die AMD GPU´s ja auf der selben Architektur beruhen sehe ich das Thema RT bei den aktuellen AMD Karten sehr entspannt, die werden in Zukunft schon noch einiges rausholen in Sachen RT.
Cyberpunk als Referenz für RT Benchmarks zu nehmen ist meines Erachtens nach ziemlich Sinnfrei da es von vorneherein auf Nvidias RT Kerne optimiert ist, also ziemlicher Quatsch der Test.
Um ein grobes Fazit zu ziehen okay und auch schön zu lesen. Insgesamt wäre mir eine 6800XT trotzdem lieber wie eine 3080, da Sie mehr Speicher hat und meist auch bissl flotter ist, auf RT usw. geh ich persönlich so oder so erst genau ein wenn es sich mehr etabliert hat, denke so nächste GPU Generation.
Nur mit dem DLSS Gegenstück lässt sich AMD irgendwie ziemlich viel Zeit, schade eigentlich
 

raPid-81

Freizeitschrauber(in)
Da die Konsolen ja die Richtung vorgeben was zukünftig in Spielen so implementiert wird oder nicht und die Konsolen und die AMD GPU´s ja auf der selben Architektur beruhen sehe ich das Thema RT bei den aktuellen AMD Karten sehr entspannt, die werden in Zukunft schon noch einiges rausholen in Sachen RT.
Cyberpunk als Referenz für RT Benchmarks zu nehmen ist meines Erachtens nach ziemlich Sinnfrei da es von vorneherein auf Nvidias RT Kerne optimiert ist, also ziemlicher Quatsch der Test.
Um ein grobes Fazit zu ziehen okay und auch schön zu lesen. Insgesamt wäre mir eine 6800XT trotzdem lieber wie eine 3080, da Sie mehr Speicher hat und meist auch bissl flotter ist, auf RT usw. geh ich persönlich so oder so erst genau ein wenn es sich mehr etabliert hat, denke so nächste GPU Generation.
Nur mit dem DLSS Gegenstück lässt sich AMD irgendwie ziemlich viel Zeit, schade eigentlich
CP2077 nutzt DX12 Ultimate. Die Befehlssätze sind also dort definiert, nur sind die RT Cores bei Nvidia deutlich schneller und bieten mehr Features (siehe Link). Da das Spiel auf den Karten beider Hersteller mit DX12U läuft ist hier der Vergleich sogar am sinnvollsten.
 

Nightslaver

PCGH-Community-Veteran(in)
Das ist derzeit nun mal extrem leise Zukunftsmusik. Bis zu einer flächendeckenden Implementierung reden wir vermutlich eher von 5+ Jahren. Bis dahin (und auch danach) werden zahlreiche Spiele erscheinen, die es mit der Optimierung nicht so genau nehmen, so wie das immer ist. Vergleiche doch mal Doom Eternal mit Ark, in Sachen Geschmeidigkeit also Butter in der Sonne mit einem Sack Kokosnüsse. Für was rüstest du auf, wenn dich der Inhalt interessiert? ;)

MfG
Raff
Ich würde mal sagen das man aufrüstet weil das Auge mitspielt, selbst wenn man Inhalte über Grafik stellt und leider leider, viele Entwickler nach wie vor nicht verstehen das ein ästhetisch & vom Art-Stile gut aussehndes Spiel nicht alleine bedeutet das man die zu Zeitpunkt X maximal vertretbare Menge an Polygone auf die Objekte pfeffert, mit Effektgewittern um sich wirft und Rechenleistung auf maximal unötig phsyikalischen Unsinn in ein Spiel verwendet, sondern dadurch entsteht man die Dinge und den allgemeinen Artstile gut aufeinander abstimmt und so implementiert das sie den bestmöglichen Effekt bei möglichst geringer Auslastung erzielen.

Darum kann ich mir das deutlich ältere Fallout Tactics auch heute noch grafisch geben, aber von einem ungemoddeten Fallout 3 bekomme ich bald Augenkrebs, darum kann ich heute noch ein X3: Terran Conflict spielen, mir aber das vergleichbar alte Assassins Creed 2 einfach nicht mehr geben.

Viele Spiele sehen halt leider direkt sichtbar weniger gut aus wenn man die Grafik deutlich runterschraubt, weil selbige halt in der Regel auf sehr hohe bis maximale Setting zu Release X abgestimmt ist, aber nicht mehr darauf auch in Hoch und mittel grafisch und stilistisch zu überzeugen und leider altern sie dadurch auch nicht selten nicht so gut.
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Das Problem mit den sichtbaren LoD Stufen wird mit den MeshShadern angegangen.
Hier wieder der Appell. Lies dich um gottes Willen mal ein!

Das gesamte f*ckin Memorymanagement wird hier umgebaut. :ugly: Versteht denn hier wirklich keiner welche Auswirkungen das hat??!

Solche gravierenden Änderungen/Fortschritte gabs zuletzt 2007 als unified Shader eingeführt wurden.

Ich werd jetzt auch ganz sicher nicht versuchen jeden Mist zu erklären, wenn man nur mal etwas googlen bräuchte. Im DirectX developer blog ist ja schonmal vieles beschrieben. Aber wem erzähle ich das. Ihr seid ja alle sehr versiert, ja..
Wenn Schachmatt123, raPid-81 und owned139 Deinen Beitrag liken....
 

Gurdi

Kokü-Junkie (m/w)
SSD Real-Time-Streaming, deswegen hat die PS5 auch nur 16GB GDDR6 für das gesamte System. Wohlgemerkt Shared Memory, also RAM + VRAM.
Ja wir reden hier von einem SOC, der die Daten sowieso in ein und den selben Speicher packen muss.
Hast du einen SOC wo alle Spieldaten in GDDR6 lagern und genau so fix angebunden sind? Wohl kaum.

Der PC muss von der Platte in den Dram via PCI Express in den GPU Speicher. Ganz anderes Prinzip, die langsamste Verbindung ist entscheidend.
 

openSUSE

Software-Overclocker(in)
Der PC muss von der Platte in den Dram via PCI Express in den GPU Speicher. Ganz anderes Prinzip, die langsamste Verbindung ist entscheidend.
Mit DirectStorage geht es gearde darum den Zwischenschritt über das RAM zu sparen, also von M2 (PCI-E) XXX SSD direckt in das VRAM. Und zwar ohne die CPU mehr als peripher zu belasten.
Dies gilt aber nicht nur für Texturen,es gilt für ALLE Objekte.
VRAM spart man damit lediglich für eine/pro Szene ein , denn man braucht damit auch nur die TEILE (sogar BIT genau) der Texturen (und Objekte) im VRAM, die auch "sichtbar" sind.

Bei DirectStorage ist das "Texture Streaming" eigentlich das "billigste" zu implementierende Feature, könnte man sogar im Treiber FAKEN, wenn man es nicht in Hardware in der GPU hätte.
Was hatte Nividia bezüglich DirectStorage nochmal hervorgehoben? ;)
 

Berserkervmax

Software-Overclocker(in)
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
Mit er einschränkung das der nächste Urlaub ausfällt bei den GPU Preisen zur Zeit
Deshalb ne RTX3090 weil Urlaub ist auch 2021 nicht wirklich sicher möglich.
ZuHause zocken schon
 

raPid-81

Freizeitschrauber(in)
Was hatte Nividia bezüglich DirectStorage nochmal hervorgehoben? ;)
Eigentlich nur die Dekompression auf der GPU. DirectStorage erlaubt ja nur das direkte verschieben der Daten von der SSD in den VRAM anstatt den Umweg über den RAM zu nehmen. Bei komprimierten Daten müssen diese aber von der CPU dekomprimiert werden, das übernehmen im RTX IO Fall die CUDA Cores.
 

Scorpionx01

Software-Overclocker(in)
Das hat folgenden Grund:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/inde...1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-im...g-nvidia-dlss/

Das bedeutet, wenn man zwischen DLSS und nativer Auflösung in Cyberpunk vergleicht, dann vergleicht man ein ungeschärftes Bild mit einem Bild, das stark nachgeschärft wurde. Ich hab keine Ahnung, warum CDPR das nicht berücksichtig hat, denn so wird zu Unrecht DLSS als unscharf abgetan. Ich hab hier mal einen Vergleich erstellt mit DLSS Performance (540p) und nativem 1080p, aber das DLSS Bild hab ich manuell mit CAS Reshade auf ungefähr einem ähnlichen Level nachgeschärft, wie das Spiel TAA schärft:


Um den Unterschied zwischen ML Rekonstruktion und Upscaling zu verdeutlichen, ist auch ein Vergleich mit FidelityFX Upscaling hinzugefügt (50%, also ebenfalls 540p)


Ich hoffe, das erklärt es. Was den Ultra Performance Modus angeht: der sollte nur für 8K verwendet werden.
Die Mods auf Nexus schaffen Abhilfe? Ich schaue es mir mal an. Danke... :-)
 

Gurdi

Kokü-Junkie (m/w)
Eigentlich nur die Dekompression auf der GPU. DirectStorage erlaubt ja nur das direkte verschieben der Daten von der SSD in den VRAM anstatt den Umweg über den RAM zu nehmen. Bei komprimierten Daten müssen diese aber von der CPU dekomprimiert werden, das übernehmen im RTX IO Fall die CUDA Cores.
Cuda Cores ist nichts anderes als Shader, man verwendet als GPU Leistung um mit lahmen 24Gbps an die GPU zu gehen, toll.

Die Technik ist super zum nachladen und würde Ladezeiten in Spielen quasi vollständig eleminieren. Was sich hier jedoch zurecht fabuliert wird mit weniger Vram Verbrauch oder das die GPU diese Daten direkt abgreifen könnte ist absolut unrealistisch. PCI Ex ist schon zu lahm mit 16 Lanes dafür, die popeligen 4x an der NVME erst recht und nichtmal die werden von SSD´s ausgelastet.
 
Oben Unten