Geforce Game Ready 466.11: Treiber mit RTX für Mortal Shell - 130 Prozent mehr Leistung durch DLSS

Und meine Frage war an Dich gestellt (?) und hatte was genau mit DLSS (das ich ja grundsätzlich befürworte) an sich zu tun?

Meine Güte...

4K Native:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

4K DLSS:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

4K FidelityFx:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Kannst dir ja selber die Fotos anschauen , und ja DLSS verwischt die Grafik. (Vor allem am Wasser zu erkennen.)

DLSS hat auch so seine Probleme , komisch das es auf PCGH darauf nicht eingegangen wird , woran das wohl liegen mag? XD
Zuerstmal hat die PCGH und auch Digi Foundry in Death Stranding DLSS Test auch die nebenwirkungen gezeigt aber auch die Vorteile. Im gesamten macht DLSS den besseren Job als die native vor allem der Gesamteindruck durch DLSS ist besser weil nichts mehr flickert und zittert in der Weitsicht. Ich weiß nicht welche DLSS Einstellung du hier gepostet hast, aber wie ich schon schrieb wenn man den WorstCase Szenario sucht findet man immer etwas. FideFX hat nichts mit DLSS zutun, es ist nichts weiter als ein Schrfzeichner und auch das Bild sagt nix über FideFX aus da wir nicht wissen ob FideFX hier aktiv arbeitet, den dazu gibt es mehrere Einstellungen zu FideFX wie zB 60fps halten oder mindestens oder höchste Auflösungsfaktor. Du stellst hier Bilder hin die im grunde keine aussage machen. Stell mal FideFX auf 50 ohne 60 zu halten, also die Einstellung wo FideFX aktiv ist und schau dir mal an wie verwaschen und zittrig das Bild in Death Stranding wird, das funktioniert ja bei allen Karten also kein geheimnis. Du unterstellst PCGH jetzt noch gekauft zu sein. Nochmal DLSS muss nicht immer das bessere Ergebnis erzielen, es kann Szenen geben wo DLSS schwäche zeigt, aber im gesamten macht es die selbe schärfe und sogar bessere Texturqualität als Nativ ( 4K ) soll heißen, im gesamten ist DLSS einfach besser, dazu bekommst du einen FPS Boost von 50-100% einfach mal so. Wenn das nicht der heiße Shit ist, dann weiß ich auch nicht. Wenn es ein Spiel gebe ohne irgendeine Einstellung das du direkt mit DLSS spielen kannst, dann würdest die Schärfe nie und nimmer Unterscheiden, so ist es meist bei den Konsolen schon immer gewesen, zB Checkerboard 4K von Sony, die einen verdammt guten Job macht aber eben neben DLSS direkt verglichen schon ziemlich alt aussieht. Dazu gibt es genug Tests von Digi Foundry mit bewegten und gezoomten Bilder und nein die sind nicht gekauft.
 
Sry aber der AF von Nvidia ist derzeit dermaßen schlecht, da ist es keine Kunst das flickern mit DLSS zu kompensieren. Ich hab die Tage öfters WDL gebencht mit den Systemen, die NV Karte macht da wirklich einen schlechten Job im AF.
 
Ich dachte DLSS holt sich die Bildqualität durch das abgreifen von Motion Vektoren.
Man bewegt sich im Spiel und dadurch erhält man auch in geringerer Auflösung am Ende mehr Details.
DLSS ist ein abgrundgeiles Feature, aber die Grafikkarten dafür sind einfach viel zu teuer für meinen Geldbeutel.
Ich setze schon seit 10 Jahren auf Nvidia Karten. Meine 980Ti begleitet mich nun fast 6 Jahre.
Bin auch von der 980ti auf 3060ti gewechselt, zur Zeit kannst du die Preise vergessen, bei EBAY Kleinanzeigen kannst du schauen ob es einen ehrlichen Verkäufer gibt, ein Kumpel von mir hat sich ne 3060ti gebraucht über Kleinanzeigen gekauft die er auch vorort testen dürfte und der Preis war 530€, also ein ehrlicher Käufer der selber Wut auf Scalper hatte. Ist wirklich ne geile Karte. Die 980ti ist immer noch eine super Karte, in Full HD und einigen Spiele sogar 1440p mit Setting Abstrichen kommst du noch gut mit. Also kannst du ruhig noch warten bis die Preise wieder normal werden. Wie DLSS richtig funktioniert ist ne Art Hybrid zwischen Algorhytmus und KI die fehlende Pixel wiederherstellt. Die KI wird mit 16K Bilder trainiert und das die ganze Zeit, im grunde wird Ihr beigebracht wie ein Bild auszusehen hat wenn man diese hochskaliert. Dazu gibt es einen sehr guten Bericht von Digital Foundry
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ich hab ein paar mehr Systeme als nur mein Main.
Beispiel, WDL "sehr hoch" RT-Mittel, DLSS Performance.

@raPid-81 Liest du auch dieZeitung auf dessen Page du komentierst?
Anhang anzeigen 1360911
Du hast weiterhin keine Quellen zu Deinen Aussagen, richtig?

Noch mal: Wieso sollte DLSS CPU Performance kosten?

Und meinen Edit bezüglich VRAM Usage hast Du gesehen, ja?
Achso, falsch gelesen, ja klar verbraucht 4K DLSS Quality mehr VRAM als WQHD nativ. Aber sieht halt auch entsprechend viel besser aus und verbraucht deutlich weniger VRAM als 4K nativ.
 
Problem ist nur, DLSS schiebt den Leistungsbedarf auch wieder auf andere Bereiche der einen Teil oder sogar den gesamten Effekt auf schwächeren System wieder negiert.Das ist relativ sinnfrei irgendwie da ein System mit schwacher Grafikkarte in der Regel auch ein recht langsames Gesamtsystem nutzt.
Ach bitte.. :schief:

Du lutscht dir hier fast schon verzweifelt irgendwelche Szenarien aus den Fingern wo DLSS wenig Vorteile oder gar keine bringen soll, aber die sind die absolute Ausnahme und haben nix mit der Realität zu tun. Jemand der eine extrem schlechte CPU hat, hat meist keine RTX in seinem Rechner stecken.

Und selbst wenn.. Zu deiner These das DLSS CPU-Performance frisst hätte ich auch gerne eine Quelle. Das widerspricht allem was ich bis jetzt gesehen und getestet hab.

Ich bin ja auch nicht grad ein großer Nvidia-Fan, aber DLSS (2.0) ist für mich ein absoluter Gamechanger, und das AMD da jahrelang keinen Konter zu bringen kann ist für mich eine derbe Blamage und macht rot zur Zeit für mich schlicht nicht empfehlenswert.
 
Jemand der eine extrem schlechte CPU hat, hat meist keine RTX in seinem Rechner stecken.
This. Und wenn man eine 3090 mit einem Core-i3 verbaut, das CPU Bottleneck ist doch in 720p als auch WQHD DLSS ultra performance dasselbe... Da schafft die CPU halt nicht genügend draw calls um die GPU zu befeuern, das hat doch nichts mit DLSS zu tun. Dafür sieht es mit DLSS aber besser aus bei gleichen FPS.
 
Zuerstmal hat die PCGH und auch Digi Foundry in Death Stranding DLSS Test auch die nebenwirkungen gezeigt aber auch die Vorteile. Im gesamten macht DLSS den besseren Job als die native vor allem der Gesamteindruck durch DLSS ist besser weil nichts mehr flickert und zittert in der Weitsicht. Ich weiß nicht welche DLSS Einstellung du hier gepostet hast, aber wie ich schon schrieb wenn man den WorstCase Szenario sucht findet man immer etwas. FideFX hat nichts mit DLSS zutun, es ist nichts weiter als ein Schrfzeichner und auch das Bild sagt nix über FideFX aus da wir nicht wissen ob FideFX hier aktiv arbeitet, den dazu gibt es mehrere Einstellungen zu FideFX wie zB 60fps halten oder mindestens oder höchste Auflösungsfaktor. Du stellst hier Bilder hin die im grunde keine aussage machen. Stell mal FideFX auf 50 ohne 60 zu halten, also die Einstellung wo FideFX aktiv ist und schau dir mal an wie verwaschen und zittrig das Bild in Death Stranding wird, das funktioniert ja bei allen Karten also kein geheimnis. Du unterstellst PCGH jetzt noch gekauft zu sein. Nochmal DLSS muss nicht immer das bessere Ergebnis erzielen, es kann Szenen geben wo DLSS schwäche zeigt, aber im gesamten macht es die selbe schärfe und sogar bessere Texturqualität als Nativ ( 4K ) soll heißen, im gesamten ist DLSS einfach besser, dazu bekommst du einen FPS Boost von 50-100% einfach mal so. Wenn das nicht der heiße Shit ist, dann weiß ich auch nicht. Wenn es ein Spiel gebe ohne irgendeine Einstellung das du direkt mit DLSS spielen kannst, dann würdest die Schärfe nie und nimmer Unterscheiden, so ist es meist bei den Konsolen schon immer gewesen, zB Checkerboard 4K von Sony, die einen verdammt guten Job macht aber eben neben DLSS direkt verglichen schon ziemlich alt aussieht. Dazu gibt es genug Tests von Digi Foundry mit bewegten und gezoomten Bilder und nein die sind nicht gekauft.
Ganz ehrlich? Was genau willst Du von mir? Du gibst Dir soviel Mühe möglichst lange Nachrichten zu schreiben und davon hat im Grunde nichts mit dem zu tun, was ich Dir geschrieben habe.

Was genau stimmt nicht mit Dir? :D
 
Ganz ehrlich? Was genau willst Du von mir? Du gibst Dir soviel Mühe möglichst lange Nachrichten zu schreiben und davon hat im Grunde nichts mit dem zu tun, was ich Dir geschrieben habe.

Was genau stimmt nicht mit Dir? :D
Sorry, an dich war die nicht mal gerichtet :) Keine Ahnung warum du hier zitiert wurdest. Ich will nichts von dir, ehrlich ?
 
Junge seid Ihr verblendet.Ich rede hiervon meinem aktuellen Szenario,dass das nichtsmit demAlltag der meisten HIER zu tun hat ist mir klar.

Dennoch gibt es Laptops mit integrierter GPU, eGPU´s wie in meinem Fall via Thunderbolt und auch schwache Systeme die eben Leuten gehören die eben nicht immer den heißesten Scheiß verbaut haben sondern lediglich Ihre GraKa upgraden.

Also kommt mal von eurem DLSS Kreuzzug wieder runter. Die Technik ist eigentlich ideal für mich für das Convertibel und die Lösung passt mir derzeit auch deutlich besser als eine von AMD, das hab ich aber auch bereits schon geschrieben.

Natürlich brauch DLSS auch CPU Leistung und es benötigt auch Bandbreite.
Und DLSS verbraucht auch im Gegensatz zur reduzierten Auflösung mehr Vram, immer noch.

Wo sollen denn eurer Meinung nach die Daten liegen? Da existieren Daten im Treiber zu,wie sonst soll die KI wissen was Sache ist und die nativen Daten müssen zumindest zum Teil im Vram vorgehalten werden. Die Technik zieht sich die Daten ja nicht aus der Nase, es benötigt Software und dieliegt im Treiber und der Treiber benötigt nunmalCPU Leistung. In DX12 spielen wie WDL tut das schlicht weh wie in meinem Szenario.

Die AMD Lösung ist aber noch beschissener derzeit,von daher immer noch besser als nichts.
 
Junge seid Ihr verblendet.Ich rede hiervon meinem aktuellen Szenario,dass das nichtsmit demAlltag der meisten HIER zu tun hat ist mir klar.

Dennoch gibt es Laptops mit integrierter GPU, eGPU´s wie in meinem Fall via Thunderbolt und auch schwache Systeme die eben Leuten gehören die eben nicht immer den heißesten Scheiß verbaut haben sondern lediglich Ihre GraKa upgraden.

Also kommt mal von eurem DLSS Kreuzzug wieder runter. Die Technik ist eigentlich ideal für mich für das Convertibel und die Lösung passt mir derzeit auch deutlich besser als eine von AMD, das hab ich aber auch bereits schon geschrieben.

Natürlich brauch DLSS auch CPU Leistung und es benötigt auch Bandbreite.
Und DLSS verbraucht auch im Gegensatz zur reduzierten Auflösung mehr Vram, immer noch.

Wo sollen denn eurer Meinung nach die Daten liegen? Da existieren Daten im Treiber zu,wie sonst soll die KI wissen was Sache ist und die nativen Daten müssen zumindest zum Teil im Vram vorgehalten werden. Die Technik zieht sich die Daten ja nicht aus der Nase, es benötigt Software und dieliegt im Treiber und der Treiber benötigt nunmalCPU Leistung. In DX12 spielen wie WDL tut das schlicht weh wie in meinem Szenario.

Die AMD Lösung ist aber noch beschissener derzeit,von daher immer noch besser als nichts.
Also hast Du keine einzige Quelle für Deine Behauptungen und kommst jetzt mit der Unschulds-Masche und versuchst uns jetzt als Denunzianten hinzustellen obwohl Dein Aussage:
DlSS und Raytracing kosten CPU Leistung und auch Bandbreite.
war.

Dass DLSS keine Magie ist und langsame Systeme dadurch nicht zu Rechen-Monstern werden sollte klar sein. Aber dass DLSS CPU Performance oder Bandbreite kostet ist und bleibt eine reine These.

Es verbraucht auch übrigens mehr Vram mit DLSS als eine einfache Senkung der Auflösung.
Das ist auch so eine reißerische Aussage. Ja, klar verbraucht DLSS mehr VRAM als eine Senkung der nativen Auflösung. Aber dass die Target Auflösung bei DLSS dann HÖHER ist, das wird nicht erwähnt. Sinnloser Vergleich um sagen zu können "DLSS kostet VRAM".

Warum stänkerst Du hier wieder rum und machst DLSS schlecht? Wir wissen doch dass Du AMD bevorzugst.
 
Das ist auch so eine reißerische Aussage. Ja, klar verbraucht DLSS mehr VRAM als eine Senkung der nativen Auflösung. Aber dass die Target Auflösung bei DLSS dann HÖHER ist, das wird nicht erwähnt. Sinnloser Vergleich um sagen zu können "DLSS kostet VRAM".

Warum stänkerst Du hier wieder rum und machst DLSS schlecht? Wir wissen doch dass Du AMD bevorzugst.
1. Stänkere ich nicht rum, sondern habe lediglich erläutert das es wie in meinem Fall teils verpufft.
2. Spielt das durchaus eine Rolle, nehmen wir mal einen Laptop mit 3060 6GB, oder wie bei mir ein Convertibel mit UHD Panel, da stellt das ein Problem dar! Bei einer eGPU darf niemals der Speicher überlaufen, bei einer 8GB Karte würde es also zu Problemen kommen beim Speicherbedarf QHD + DLSS.
3. Hast du immer noch kein Argument gebracht wie die Technik laufen soll ohne Daten vom Treiber und Mitwirkung von der CPU. Ich warte gespannt.

4. Belege, ich brauche keinen popeligen Link, ich kann das perfekt selber testen weil eine eGPU dafür perfekt ist.

Frischer Run WDL, wir befinden uns im Bandbreitenlimit. Die GPU ist maximal übertaktet mit 2160/8401
720p RT Hoch, Gamesetting Sehr Hoch
720p RT_Hoch.png

720p selbe wie oben, mit DLSS Leistung. Die CPU Last steigt, kein Leistungsgewinn.
RT Hoch + DLSS Leistung.png

720p selbe wie oben DLSS Quality. Leistungsverlust wegen Erhöhung der Bandbreitenanforderung. CPU Last steigt. Vram Bedarf jeweils identisch obwohl geringere Auflösung angewendet wird durch DLSS!
RT Hoch + DLSS Quality.png


Das selbe ohne RT. Wieder befinden wir uns im Bandbreitenlimit.
720p nativ
720 Nativ.png

720p + DLSS Quality, Leistung sinkt, CPU Last steigt. Vram Bedarf jeweils identisch obwohl geringere Auflösung angewendet wird durch DLSS!
720p+Quality.png
 
Ich verstehe diesen ganzen Hype um DLSS nicht. Alle schreiben immer "Mehr Leistung durch DLSS" ....
JA, wenn man die Auflösung runter regelt, hat man mehr FPS. Finde ich jetzt nicht erstaunlich.
Alle Spiele die mit DLSS gespielt werden sehen matschiger aus als Nativ. Gibt zwar paar ausnahmen aber CyberPunk mit 4K und "Ausgeglichen" sieht total wie 1080p aus.

Ich finde DLSS jetzt nicht bahnbrechend. jeder kann die Auflösung runter schrauben.
Schade, dass diese Technik es in die Benchmarks geschafft hat.
Ich bin bei Dir, DLSS ist nicht gleich DLSS, je nach Spiel variiert es doch. Ich bin auch eher der Freund von "DLSS Quality" als "Performance", da hier ein paar FPS mehr drin sind, wenn es gut implementiert wurde und trotzdem das Bild verdammt gut ausschaut.

Control ist da halt immer mein Musterbeispiel, da es eines der wenigen Spiele mit DLSS ist, das ich besitze. Werde die Tage mal wieder MHW anwerfen und freue mich bald auf DLSS 2.0 in Metro Exodus und am Wochenende dann in Mortal Shell :)

Hier finde ich macht DLSS 2.0 eine gute Figur:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Was ich echt beeindruckend fand, war in diesem Video, wie die Technik aus 240p Matsch noch was herzaubert. Als Enthusiast käme mir das nicht auf den Bildschirm, beeindruckend ist der Prozess halt schon. Kann jedem das Video empfehlen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
1. Stänkere ich nicht rum, sondern habe lediglich erläutert das es wie in meinem Fall teils verpufft.
2. Spielt das durchaus eine Rolle, nehmen wir mal einen Laptop mit 3060 6GB, oder wie bei mir ein Convertibel mit UHD Panel, da stellt das ein Problem dar! Bei einer eGPU darf niemals der Speicher überlaufen, bei einer 8GB Karte würde es also zu Problemen kommen beim Speicherbedarf QHD + DLSS.
3. Hast du immer noch kein Argument gebracht wie die Technik laufen soll ohne Daten vom Treiber und Mitwirkung von der CPU. Ich warte gespannt.

4. Belege, ich brauche keinen popeligen Link, ich kann das perfekt selber testen weil eine eGPU dafür perfekt ist.
1. Und Deinen Ultra-Edge Case (Gaming Laptop mit eGPU und UHD Display) hast Du dann verallgemeinert. Großes Kino.
2. Du vergleichst hier wieder Äpfel mit Birnen. Noch mal: bei gleicher Target Auflösung hast Du mit DLSS immer geringeren VRAM Bedarf.
3. Ich muss hier gar keine Argumente aufbringen, Du hast eine These aufgestellt, nicht ich. Also musst Du auch zuerst Belege liefern. Aber netter Versuch, sowas kommt immer wenn man keine Belege hat.
4. Jo klar, Du brauchst natürlich keine Belege. Deine Screenshots hättest Du Dir sparen können, die belegen nämlich nix, weil da keine Settings zu sehen sind. ich behaupte einfach mal Du lügst, beweis mir das Gegenteil...
 
Jungs, nehmt Euch ein gemeinsames Feierabendbier. Das Leben ist zu kurz, um über Computersysteme zu streiten :bier:
 
1. Und Deinen Ultra-Edge Case (Gaming Laptop mit eGPU und UHD Display) hast Du dann verallgemeinert. Großes Kino.
2. Du vergleichst hier wieder Äpfel mit Birnen. Noch mal: bei gleicher Target Auflösung hast Du mit DLSS immer geringeren VRAM Bedarf.
3. Ich muss hier gar keine Argumente aufbringen, Du hast eine These aufgestellt, nicht ich. Also musst Du auch zuerst Belege liefern. Aber netter Versuch, sowas kommt immer wenn man keine Belege hat.
4. Jo klar, Du brauchst natürlich keine Belege. Deine Screenshots hättest Du Dir sparen können, die belegen nämlich nix, weil da keine Settings zu sehen sind. ich behaupte einfach mal Du lügst, beweis mir das Gegenteil...
Schnapp dir die aktuelle PCGH, S. 86CP 2077 Benchmark und bestaune das Ergebnis des XMG Core 17.

Dazu noch S. 57 WDL CPU Benchmark, Overhead der NV Karten.
Du hast noch nicht ein sachliches Argument vorgebracht, aber quasselst hier einen vom Baum.

Das Problem betrifft mich akut, ich habe es dargelegt und ich habe entsprechend auch das Recht diesen Umstand zu monieren.

Die 3060 ist trotzdem für mich derzeit die beste Karte, trotz der Umstände. Sie ist wesentlich sparsamer mit der Bandbreite bei Nutzung des internen Panels, das wiegt die Nachteile deutlich auf bisher und DLSS bringt mir in UHD auch einen Mehrwert.

UHD Sehr Hoch, DLSS Leistung, Bandbreitenlimit.
UHD-DLSS.png


Auch sonst skaliert die Leistung sauber. Bin sehr zufrieden mit der Karte im Dock, teste die Tage aber auch noch eine 6700XT.
TS.png

Also lügen tut er so oder so. Er möchte doch nur DLSS schlecht machen.
Sowas landet bei mir gleich auf der Ignore Liste.
Ich bitte freundlichst drum, Danke.
 
Zuletzt bearbeitet:
So, hier einmal CP2077:
WQHD - RT Psycho - Details max - DLSS off
WQHD - RT Psycho - Details max - DLSS off.jpg



WQHD - RT Psycho - Details max - DLSS Quality
WQHD - RT Psycho - Details max - DLSS Quality.jpg


Der VRAM Verbrauch sinkt um fast 1 GB bei gleicher Target Auflösung (WQHD).
Die FPS verdoppeln sich fast.
Der Stromverbrauch sinkt um ~20 Watt.
CPU Last steigt um 30% - klar, es müssen ja jetzt auch mehr draw calls gesendet werden da die FPS sich fast verdoppeln.
Ansonsten ändert sich da nicht viel. Was Du mit "Bandbreiten Limit" meinst ist mir auch nicht ganz klar. Zwischen welchen Komponenten denn? GPU - VRAM? GPU - CPU? Die BUS Usage (PCIe Usage) sinkt von 7% (mit DLSS) auf 5% (nativ). Das meinst Du hoffentlich nicht damit...
 
Nimms mir nicht übel, aber es macht wenig Sinn über diese spezifischen Umstände zu diskutieren mit dir wenn dir nicht mal klar ist nach all den Post was das Bandbreitenlimit ist.
 
Schnapp dir die aktuelle PCGH, S. 86CP 2077 Benchmark und bestaune das Ergebnis des XMG Core 17.

Dazu noch S. 57 WDL CPU Benchmark, Overhead der NV Karten.
Du hast noch nicht ein sachliches Argument vorgebracht, aber quasselst hier einen vom Baum.

Das Problem betrifft mich akut, ich habe es dargelegt und ich habe entsprechend auch das Recht diesen Umstand zu monieren.

Die 3060 ist trotzdem für mich derzeit die beste Karte, trotz der Umstände. Sie ist wesentlich sparsamer mit der Bandbreite bei Nutzung des internen Panels, das wiegt die Nachteile deutlich auf bisher und DLSS bringt mir in UHD auch einen Mehrwert.

UHD Sehr Hoch, DLSS Leistung, Bandbreitenlimit.
Anhang anzeigen 1360928
Wie gesagt, Deinen Edge Case zu verallgemeinern bleibt sinnfrei. Auch dass DLSS CPU Leistung kostet sehe ich nirgends belegt, nur dass Deine CPU Last steigt weil DLSS mehr draw calls ermöglicht. Man sieht in Deinen Screenshots oben sehr schön dass ein Test mit 720p als Target Auflösung einfach Quatsch ist. Mach die Tests mal in UHD / WQHD...
Nimms mir nicht übel, aber es macht wenig Sinn über diese spezifischen Umstände zu diskutieren mit dir wenn dir nicht mal klar ist nach all den Post was das Bandbreitenlimit ist.
Herrlich, das ist jetzt Dein Totschlagargument. Ok, bye.
 
Zurück