• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce Game Ready 466.11: Treiber mit RTX für Mortal Shell - 130 Prozent mehr Leistung durch DLSS

theeagle61

Komplett-PC-Aufrüster(in)
Und meine Frage war an Dich gestellt (?) und hatte was genau mit DLSS (das ich ja grundsätzlich befürworte) an sich zu tun?

Meine Güte...

4K Native:
Recommented content - Imgur An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

4K DLSS:
Recommented content - Imgur An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

4K FidelityFx:
Recommented content - Imgur An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Kannst dir ja selber die Fotos anschauen , und ja DLSS verwischt die Grafik. (Vor allem am Wasser zu erkennen.)

DLSS hat auch so seine Probleme , komisch das es auf PCGH darauf nicht eingegangen wird , woran das wohl liegen mag? XD
Zuerstmal hat die PCGH und auch Digi Foundry in Death Stranding DLSS Test auch die nebenwirkungen gezeigt aber auch die Vorteile. Im gesamten macht DLSS den besseren Job als die native vor allem der Gesamteindruck durch DLSS ist besser weil nichts mehr flickert und zittert in der Weitsicht. Ich weiß nicht welche DLSS Einstellung du hier gepostet hast, aber wie ich schon schrieb wenn man den WorstCase Szenario sucht findet man immer etwas. FideFX hat nichts mit DLSS zutun, es ist nichts weiter als ein Schrfzeichner und auch das Bild sagt nix über FideFX aus da wir nicht wissen ob FideFX hier aktiv arbeitet, den dazu gibt es mehrere Einstellungen zu FideFX wie zB 60fps halten oder mindestens oder höchste Auflösungsfaktor. Du stellst hier Bilder hin die im grunde keine aussage machen. Stell mal FideFX auf 50 ohne 60 zu halten, also die Einstellung wo FideFX aktiv ist und schau dir mal an wie verwaschen und zittrig das Bild in Death Stranding wird, das funktioniert ja bei allen Karten also kein geheimnis. Du unterstellst PCGH jetzt noch gekauft zu sein. Nochmal DLSS muss nicht immer das bessere Ergebnis erzielen, es kann Szenen geben wo DLSS schwäche zeigt, aber im gesamten macht es die selbe schärfe und sogar bessere Texturqualität als Nativ ( 4K ) soll heißen, im gesamten ist DLSS einfach besser, dazu bekommst du einen FPS Boost von 50-100% einfach mal so. Wenn das nicht der heiße Shit ist, dann weiß ich auch nicht. Wenn es ein Spiel gebe ohne irgendeine Einstellung das du direkt mit DLSS spielen kannst, dann würdest die Schärfe nie und nimmer Unterscheiden, so ist es meist bei den Konsolen schon immer gewesen, zB Checkerboard 4K von Sony, die einen verdammt guten Job macht aber eben neben DLSS direkt verglichen schon ziemlich alt aussieht. Dazu gibt es genug Tests von Digi Foundry mit bewegten und gezoomten Bilder und nein die sind nicht gekauft.
 

Gurdi

Kokü-Junkie (m/w)
Sry aber der AF von Nvidia ist derzeit dermaßen schlecht, da ist es keine Kunst das flickern mit DLSS zu kompensieren. Ich hab die Tage öfters WDL gebencht mit den Systemen, die NV Karte macht da wirklich einen schlechten Job im AF.
 

theeagle61

Komplett-PC-Aufrüster(in)
Ich dachte DLSS holt sich die Bildqualität durch das abgreifen von Motion Vektoren.
Man bewegt sich im Spiel und dadurch erhält man auch in geringerer Auflösung am Ende mehr Details.
DLSS ist ein abgrundgeiles Feature, aber die Grafikkarten dafür sind einfach viel zu teuer für meinen Geldbeutel.
Ich setze schon seit 10 Jahren auf Nvidia Karten. Meine 980Ti begleitet mich nun fast 6 Jahre.
Bin auch von der 980ti auf 3060ti gewechselt, zur Zeit kannst du die Preise vergessen, bei EBAY Kleinanzeigen kannst du schauen ob es einen ehrlichen Verkäufer gibt, ein Kumpel von mir hat sich ne 3060ti gebraucht über Kleinanzeigen gekauft die er auch vorort testen dürfte und der Preis war 530€, also ein ehrlicher Käufer der selber Wut auf Scalper hatte. Ist wirklich ne geile Karte. Die 980ti ist immer noch eine super Karte, in Full HD und einigen Spiele sogar 1440p mit Setting Abstrichen kommst du noch gut mit. Also kannst du ruhig noch warten bis die Preise wieder normal werden. Wie DLSS richtig funktioniert ist ne Art Hybrid zwischen Algorhytmus und KI die fehlende Pixel wiederherstellt. Die KI wird mit 16K Bilder trainiert und das die ganze Zeit, im grunde wird Ihr beigebracht wie ein Bild auszusehen hat wenn man diese hochskaliert. Dazu gibt es einen sehr guten Bericht von Digital Foundry
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

raPid-81

Software-Overclocker(in)
Ich hab ein paar mehr Systeme als nur mein Main.
Beispiel, WDL "sehr hoch" RT-Mittel, DLSS Performance.

@raPid-81 Liest du auch dieZeitung auf dessen Page du komentierst?
Anhang anzeigen 1360911
Du hast weiterhin keine Quellen zu Deinen Aussagen, richtig?

Noch mal: Wieso sollte DLSS CPU Performance kosten?

Und meinen Edit bezüglich VRAM Usage hast Du gesehen, ja?
Achso, falsch gelesen, ja klar verbraucht 4K DLSS Quality mehr VRAM als WQHD nativ. Aber sieht halt auch entsprechend viel besser aus und verbraucht deutlich weniger VRAM als 4K nativ.
 

Nuallan

PCGH-Community-Veteran(in)
Problem ist nur, DLSS schiebt den Leistungsbedarf auch wieder auf andere Bereiche der einen Teil oder sogar den gesamten Effekt auf schwächeren System wieder negiert.Das ist relativ sinnfrei irgendwie da ein System mit schwacher Grafikkarte in der Regel auch ein recht langsames Gesamtsystem nutzt.
Ach bitte.. :schief:

Du lutscht dir hier fast schon verzweifelt irgendwelche Szenarien aus den Fingern wo DLSS wenig Vorteile oder gar keine bringen soll, aber die sind die absolute Ausnahme und haben nix mit der Realität zu tun. Jemand der eine extrem schlechte CPU hat, hat meist keine RTX in seinem Rechner stecken.

Und selbst wenn.. Zu deiner These das DLSS CPU-Performance frisst hätte ich auch gerne eine Quelle. Das widerspricht allem was ich bis jetzt gesehen und getestet hab.

Ich bin ja auch nicht grad ein großer Nvidia-Fan, aber DLSS (2.0) ist für mich ein absoluter Gamechanger, und das AMD da jahrelang keinen Konter zu bringen kann ist für mich eine derbe Blamage und macht rot zur Zeit für mich schlicht nicht empfehlenswert.
 

raPid-81

Software-Overclocker(in)
Jemand der eine extrem schlechte CPU hat, hat meist keine RTX in seinem Rechner stecken.
This. Und wenn man eine 3090 mit einem Core-i3 verbaut, das CPU Bottleneck ist doch in 720p als auch WQHD DLSS ultra performance dasselbe... Da schafft die CPU halt nicht genügend draw calls um die GPU zu befeuern, das hat doch nichts mit DLSS zu tun. Dafür sieht es mit DLSS aber besser aus bei gleichen FPS.
 

Julian K

Freizeitschrauber(in)
Zuerstmal hat die PCGH und auch Digi Foundry in Death Stranding DLSS Test auch die nebenwirkungen gezeigt aber auch die Vorteile. Im gesamten macht DLSS den besseren Job als die native vor allem der Gesamteindruck durch DLSS ist besser weil nichts mehr flickert und zittert in der Weitsicht. Ich weiß nicht welche DLSS Einstellung du hier gepostet hast, aber wie ich schon schrieb wenn man den WorstCase Szenario sucht findet man immer etwas. FideFX hat nichts mit DLSS zutun, es ist nichts weiter als ein Schrfzeichner und auch das Bild sagt nix über FideFX aus da wir nicht wissen ob FideFX hier aktiv arbeitet, den dazu gibt es mehrere Einstellungen zu FideFX wie zB 60fps halten oder mindestens oder höchste Auflösungsfaktor. Du stellst hier Bilder hin die im grunde keine aussage machen. Stell mal FideFX auf 50 ohne 60 zu halten, also die Einstellung wo FideFX aktiv ist und schau dir mal an wie verwaschen und zittrig das Bild in Death Stranding wird, das funktioniert ja bei allen Karten also kein geheimnis. Du unterstellst PCGH jetzt noch gekauft zu sein. Nochmal DLSS muss nicht immer das bessere Ergebnis erzielen, es kann Szenen geben wo DLSS schwäche zeigt, aber im gesamten macht es die selbe schärfe und sogar bessere Texturqualität als Nativ ( 4K ) soll heißen, im gesamten ist DLSS einfach besser, dazu bekommst du einen FPS Boost von 50-100% einfach mal so. Wenn das nicht der heiße Shit ist, dann weiß ich auch nicht. Wenn es ein Spiel gebe ohne irgendeine Einstellung das du direkt mit DLSS spielen kannst, dann würdest die Schärfe nie und nimmer Unterscheiden, so ist es meist bei den Konsolen schon immer gewesen, zB Checkerboard 4K von Sony, die einen verdammt guten Job macht aber eben neben DLSS direkt verglichen schon ziemlich alt aussieht. Dazu gibt es genug Tests von Digi Foundry mit bewegten und gezoomten Bilder und nein die sind nicht gekauft.
Ganz ehrlich? Was genau willst Du von mir? Du gibst Dir soviel Mühe möglichst lange Nachrichten zu schreiben und davon hat im Grunde nichts mit dem zu tun, was ich Dir geschrieben habe.

Was genau stimmt nicht mit Dir? :D
 

theeagle61

Komplett-PC-Aufrüster(in)
Ganz ehrlich? Was genau willst Du von mir? Du gibst Dir soviel Mühe möglichst lange Nachrichten zu schreiben und davon hat im Grunde nichts mit dem zu tun, was ich Dir geschrieben habe.

Was genau stimmt nicht mit Dir? :D
Sorry, an dich war die nicht mal gerichtet :) Keine Ahnung warum du hier zitiert wurdest. Ich will nichts von dir, ehrlich 😎
 

Gurdi

Kokü-Junkie (m/w)
Junge seid Ihr verblendet.Ich rede hiervon meinem aktuellen Szenario,dass das nichtsmit demAlltag der meisten HIER zu tun hat ist mir klar.

Dennoch gibt es Laptops mit integrierter GPU, eGPU´s wie in meinem Fall via Thunderbolt und auch schwache Systeme die eben Leuten gehören die eben nicht immer den heißesten Scheiß verbaut haben sondern lediglich Ihre GraKa upgraden.

Also kommt mal von eurem DLSS Kreuzzug wieder runter. Die Technik ist eigentlich ideal für mich für das Convertibel und die Lösung passt mir derzeit auch deutlich besser als eine von AMD, das hab ich aber auch bereits schon geschrieben.

Natürlich brauch DLSS auch CPU Leistung und es benötigt auch Bandbreite.
Und DLSS verbraucht auch im Gegensatz zur reduzierten Auflösung mehr Vram, immer noch.

Wo sollen denn eurer Meinung nach die Daten liegen? Da existieren Daten im Treiber zu,wie sonst soll die KI wissen was Sache ist und die nativen Daten müssen zumindest zum Teil im Vram vorgehalten werden. Die Technik zieht sich die Daten ja nicht aus der Nase, es benötigt Software und dieliegt im Treiber und der Treiber benötigt nunmalCPU Leistung. In DX12 spielen wie WDL tut das schlicht weh wie in meinem Szenario.

Die AMD Lösung ist aber noch beschissener derzeit,von daher immer noch besser als nichts.
 

raPid-81

Software-Overclocker(in)
Junge seid Ihr verblendet.Ich rede hiervon meinem aktuellen Szenario,dass das nichtsmit demAlltag der meisten HIER zu tun hat ist mir klar.

Dennoch gibt es Laptops mit integrierter GPU, eGPU´s wie in meinem Fall via Thunderbolt und auch schwache Systeme die eben Leuten gehören die eben nicht immer den heißesten Scheiß verbaut haben sondern lediglich Ihre GraKa upgraden.

Also kommt mal von eurem DLSS Kreuzzug wieder runter. Die Technik ist eigentlich ideal für mich für das Convertibel und die Lösung passt mir derzeit auch deutlich besser als eine von AMD, das hab ich aber auch bereits schon geschrieben.

Natürlich brauch DLSS auch CPU Leistung und es benötigt auch Bandbreite.
Und DLSS verbraucht auch im Gegensatz zur reduzierten Auflösung mehr Vram, immer noch.

Wo sollen denn eurer Meinung nach die Daten liegen? Da existieren Daten im Treiber zu,wie sonst soll die KI wissen was Sache ist und die nativen Daten müssen zumindest zum Teil im Vram vorgehalten werden. Die Technik zieht sich die Daten ja nicht aus der Nase, es benötigt Software und dieliegt im Treiber und der Treiber benötigt nunmalCPU Leistung. In DX12 spielen wie WDL tut das schlicht weh wie in meinem Szenario.

Die AMD Lösung ist aber noch beschissener derzeit,von daher immer noch besser als nichts.
Also hast Du keine einzige Quelle für Deine Behauptungen und kommst jetzt mit der Unschulds-Masche und versuchst uns jetzt als Denunzianten hinzustellen obwohl Dein Aussage:
DlSS und Raytracing kosten CPU Leistung und auch Bandbreite.
war.

Dass DLSS keine Magie ist und langsame Systeme dadurch nicht zu Rechen-Monstern werden sollte klar sein. Aber dass DLSS CPU Performance oder Bandbreite kostet ist und bleibt eine reine These.

Es verbraucht auch übrigens mehr Vram mit DLSS als eine einfache Senkung der Auflösung.
Das ist auch so eine reißerische Aussage. Ja, klar verbraucht DLSS mehr VRAM als eine Senkung der nativen Auflösung. Aber dass die Target Auflösung bei DLSS dann HÖHER ist, das wird nicht erwähnt. Sinnloser Vergleich um sagen zu können "DLSS kostet VRAM".

Warum stänkerst Du hier wieder rum und machst DLSS schlecht? Wir wissen doch dass Du AMD bevorzugst.
 

Gurdi

Kokü-Junkie (m/w)
Das ist auch so eine reißerische Aussage. Ja, klar verbraucht DLSS mehr VRAM als eine Senkung der nativen Auflösung. Aber dass die Target Auflösung bei DLSS dann HÖHER ist, das wird nicht erwähnt. Sinnloser Vergleich um sagen zu können "DLSS kostet VRAM".

Warum stänkerst Du hier wieder rum und machst DLSS schlecht? Wir wissen doch dass Du AMD bevorzugst.
1. Stänkere ich nicht rum, sondern habe lediglich erläutert das es wie in meinem Fall teils verpufft.
2. Spielt das durchaus eine Rolle, nehmen wir mal einen Laptop mit 3060 6GB, oder wie bei mir ein Convertibel mit UHD Panel, da stellt das ein Problem dar! Bei einer eGPU darf niemals der Speicher überlaufen, bei einer 8GB Karte würde es also zu Problemen kommen beim Speicherbedarf QHD + DLSS.
3. Hast du immer noch kein Argument gebracht wie die Technik laufen soll ohne Daten vom Treiber und Mitwirkung von der CPU. Ich warte gespannt.

4. Belege, ich brauche keinen popeligen Link, ich kann das perfekt selber testen weil eine eGPU dafür perfekt ist.

Frischer Run WDL, wir befinden uns im Bandbreitenlimit. Die GPU ist maximal übertaktet mit 2160/8401
720p RT Hoch, Gamesetting Sehr Hoch
720p RT_Hoch.png

720p selbe wie oben, mit DLSS Leistung. Die CPU Last steigt, kein Leistungsgewinn.
RT Hoch + DLSS Leistung.png

720p selbe wie oben DLSS Quality. Leistungsverlust wegen Erhöhung der Bandbreitenanforderung. CPU Last steigt. Vram Bedarf jeweils identisch obwohl geringere Auflösung angewendet wird durch DLSS!
RT Hoch + DLSS Quality.png


Das selbe ohne RT. Wieder befinden wir uns im Bandbreitenlimit.
720p nativ
720 Nativ.png

720p + DLSS Quality, Leistung sinkt, CPU Last steigt. Vram Bedarf jeweils identisch obwohl geringere Auflösung angewendet wird durch DLSS!
720p+Quality.png
 

Blowfeld

Freizeitschrauber(in)
Ich verstehe diesen ganzen Hype um DLSS nicht. Alle schreiben immer "Mehr Leistung durch DLSS" ....
JA, wenn man die Auflösung runter regelt, hat man mehr FPS. Finde ich jetzt nicht erstaunlich.
Alle Spiele die mit DLSS gespielt werden sehen matschiger aus als Nativ. Gibt zwar paar ausnahmen aber CyberPunk mit 4K und "Ausgeglichen" sieht total wie 1080p aus.

Ich finde DLSS jetzt nicht bahnbrechend. jeder kann die Auflösung runter schrauben.
Schade, dass diese Technik es in die Benchmarks geschafft hat.
Ich bin bei Dir, DLSS ist nicht gleich DLSS, je nach Spiel variiert es doch. Ich bin auch eher der Freund von "DLSS Quality" als "Performance", da hier ein paar FPS mehr drin sind, wenn es gut implementiert wurde und trotzdem das Bild verdammt gut ausschaut.

Control ist da halt immer mein Musterbeispiel, da es eines der wenigen Spiele mit DLSS ist, das ich besitze. Werde die Tage mal wieder MHW anwerfen und freue mich bald auf DLSS 2.0 in Metro Exodus und am Wochenende dann in Mortal Shell :)

Hier finde ich macht DLSS 2.0 eine gute Figur:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Was ich echt beeindruckend fand, war in diesem Video, wie die Technik aus 240p Matsch noch was herzaubert. Als Enthusiast käme mir das nicht auf den Bildschirm, beeindruckend ist der Prozess halt schon. Kann jedem das Video empfehlen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

raPid-81

Software-Overclocker(in)
1. Stänkere ich nicht rum, sondern habe lediglich erläutert das es wie in meinem Fall teils verpufft.
2. Spielt das durchaus eine Rolle, nehmen wir mal einen Laptop mit 3060 6GB, oder wie bei mir ein Convertibel mit UHD Panel, da stellt das ein Problem dar! Bei einer eGPU darf niemals der Speicher überlaufen, bei einer 8GB Karte würde es also zu Problemen kommen beim Speicherbedarf QHD + DLSS.
3. Hast du immer noch kein Argument gebracht wie die Technik laufen soll ohne Daten vom Treiber und Mitwirkung von der CPU. Ich warte gespannt.

4. Belege, ich brauche keinen popeligen Link, ich kann das perfekt selber testen weil eine eGPU dafür perfekt ist.
1. Und Deinen Ultra-Edge Case (Gaming Laptop mit eGPU und UHD Display) hast Du dann verallgemeinert. Großes Kino.
2. Du vergleichst hier wieder Äpfel mit Birnen. Noch mal: bei gleicher Target Auflösung hast Du mit DLSS immer geringeren VRAM Bedarf.
3. Ich muss hier gar keine Argumente aufbringen, Du hast eine These aufgestellt, nicht ich. Also musst Du auch zuerst Belege liefern. Aber netter Versuch, sowas kommt immer wenn man keine Belege hat.
4. Jo klar, Du brauchst natürlich keine Belege. Deine Screenshots hättest Du Dir sparen können, die belegen nämlich nix, weil da keine Settings zu sehen sind. ich behaupte einfach mal Du lügst, beweis mir das Gegenteil...
 

Blowfeld

Freizeitschrauber(in)
Jungs, nehmt Euch ein gemeinsames Feierabendbier. Das Leben ist zu kurz, um über Computersysteme zu streiten :bier:
 

Gurdi

Kokü-Junkie (m/w)
1. Und Deinen Ultra-Edge Case (Gaming Laptop mit eGPU und UHD Display) hast Du dann verallgemeinert. Großes Kino.
2. Du vergleichst hier wieder Äpfel mit Birnen. Noch mal: bei gleicher Target Auflösung hast Du mit DLSS immer geringeren VRAM Bedarf.
3. Ich muss hier gar keine Argumente aufbringen, Du hast eine These aufgestellt, nicht ich. Also musst Du auch zuerst Belege liefern. Aber netter Versuch, sowas kommt immer wenn man keine Belege hat.
4. Jo klar, Du brauchst natürlich keine Belege. Deine Screenshots hättest Du Dir sparen können, die belegen nämlich nix, weil da keine Settings zu sehen sind. ich behaupte einfach mal Du lügst, beweis mir das Gegenteil...
Schnapp dir die aktuelle PCGH, S. 86CP 2077 Benchmark und bestaune das Ergebnis des XMG Core 17.

Dazu noch S. 57 WDL CPU Benchmark, Overhead der NV Karten.
Du hast noch nicht ein sachliches Argument vorgebracht, aber quasselst hier einen vom Baum.

Das Problem betrifft mich akut, ich habe es dargelegt und ich habe entsprechend auch das Recht diesen Umstand zu monieren.

Die 3060 ist trotzdem für mich derzeit die beste Karte, trotz der Umstände. Sie ist wesentlich sparsamer mit der Bandbreite bei Nutzung des internen Panels, das wiegt die Nachteile deutlich auf bisher und DLSS bringt mir in UHD auch einen Mehrwert.

UHD Sehr Hoch, DLSS Leistung, Bandbreitenlimit.
UHD-DLSS.png


Auch sonst skaliert die Leistung sauber. Bin sehr zufrieden mit der Karte im Dock, teste die Tage aber auch noch eine 6700XT.
TS.png

Also lügen tut er so oder so. Er möchte doch nur DLSS schlecht machen.
Sowas landet bei mir gleich auf der Ignore Liste.
Ich bitte freundlichst drum, Danke.
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
So, hier einmal CP2077:
WQHD - RT Psycho - Details max - DLSS off
WQHD - RT Psycho - Details max - DLSS off.jpg



WQHD - RT Psycho - Details max - DLSS Quality
WQHD - RT Psycho - Details max - DLSS Quality.jpg


Der VRAM Verbrauch sinkt um fast 1 GB bei gleicher Target Auflösung (WQHD).
Die FPS verdoppeln sich fast.
Der Stromverbrauch sinkt um ~20 Watt.
CPU Last steigt um 30% - klar, es müssen ja jetzt auch mehr draw calls gesendet werden da die FPS sich fast verdoppeln.
Ansonsten ändert sich da nicht viel. Was Du mit "Bandbreiten Limit" meinst ist mir auch nicht ganz klar. Zwischen welchen Komponenten denn? GPU - VRAM? GPU - CPU? Die BUS Usage (PCIe Usage) sinkt von 7% (mit DLSS) auf 5% (nativ). Das meinst Du hoffentlich nicht damit...
 

Gurdi

Kokü-Junkie (m/w)
Nimms mir nicht übel, aber es macht wenig Sinn über diese spezifischen Umstände zu diskutieren mit dir wenn dir nicht mal klar ist nach all den Post was das Bandbreitenlimit ist.
 

raPid-81

Software-Overclocker(in)
Schnapp dir die aktuelle PCGH, S. 86CP 2077 Benchmark und bestaune das Ergebnis des XMG Core 17.

Dazu noch S. 57 WDL CPU Benchmark, Overhead der NV Karten.
Du hast noch nicht ein sachliches Argument vorgebracht, aber quasselst hier einen vom Baum.

Das Problem betrifft mich akut, ich habe es dargelegt und ich habe entsprechend auch das Recht diesen Umstand zu monieren.

Die 3060 ist trotzdem für mich derzeit die beste Karte, trotz der Umstände. Sie ist wesentlich sparsamer mit der Bandbreite bei Nutzung des internen Panels, das wiegt die Nachteile deutlich auf bisher und DLSS bringt mir in UHD auch einen Mehrwert.

UHD Sehr Hoch, DLSS Leistung, Bandbreitenlimit.
Anhang anzeigen 1360928
Wie gesagt, Deinen Edge Case zu verallgemeinern bleibt sinnfrei. Auch dass DLSS CPU Leistung kostet sehe ich nirgends belegt, nur dass Deine CPU Last steigt weil DLSS mehr draw calls ermöglicht. Man sieht in Deinen Screenshots oben sehr schön dass ein Test mit 720p als Target Auflösung einfach Quatsch ist. Mach die Tests mal in UHD / WQHD...
Nimms mir nicht übel, aber es macht wenig Sinn über diese spezifischen Umstände zu diskutieren mit dir wenn dir nicht mal klar ist nach all den Post was das Bandbreitenlimit ist.
Herrlich, das ist jetzt Dein Totschlagargument. Ok, bye.
 

Gurdi

Kokü-Junkie (m/w)
Wie gesagt, Deinen Edge Case zu verallgemeinern bleibt sinnfrei. Auch dass DLSS CPU Leistung kostet sehe ich nirgends belegt, nur dass Deine CPU Last steigt weil DLSS mehr draw calls ermöglicht. Man sieht in Deinen Screenshots oben sehr schön dass ein Test mit 720p als Target Auflösung einfach Quatsch ist. Mach die Tests mal in UHD / WQHD...

Herrlich, das ist jetzt Dein Totschlagargument. Ok, bye.
Ich verallgemeinere nichts, du erkennst lediglich die Problematik in gewissen Szenarien nicht an.
Hast du jetzt die PCGH oder nicht, dann kannst du dir anschauen warum der Vram zum Problem werden kann bei einem Laptop und auch warum dort das Thema Overhead eine deutlich gewichtigere Rolle spielt.
 

raPid-81

Software-Overclocker(in)
Ich verallgemeinere nichts, du erkennst lediglich die Problematik in gewissen Szenarien nicht an.
Hast du jetzt die PCGH oder nicht, dann kannst du dir anschauen warum der Vram zum Problem werden kann bei einem Laptop und auch warum dort das Thema Overhead eine deutlich gewichtigere Rolle spielt.
Deine Aussagen
DlSS und Raytracing kosten CPU Leistung und auch Bandbreite.
sind keine Verallgemeinerung? Ok, klar...

Ja? DLSS "kostet" keine CPU Leistung. DLSS ermöglicht es dass das GPU Limit nicht so schnell erreicht wird, somit die FPS steigen und dadurch natürlich die CPU Last steigt. Das ist ein logischer Zusammenhang. Aber es "kostet" nichts wie z.B. ein PhysX Feature welches auf der CPU läuft. Mehr FPS bedeuten immer mehr CPU Last.
 

deady1000

Volt-Modder(in)

Auch in Outriders.
Viel mehr Leistung und viel mehr Qualität.

Ratet, was DLSS-Quality und was nativ ist.
Tipp: Auf das Solarpanel achten.

1618524465911.png

1618524475298.png

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Blackout27

Volt-Modder(in)
Die Technik , macht für mich eigentlich nur Sinn bei schwächeren Grafikkarten.

Je nach Grafikeinstellungen und Auflösung, ist jede aktuelle GPU als "schwächere Grafikkarte" einzuordnen ^^

In Cyberpunk in 4K und DLSS Qualität sah das Ergebnis schon sehr gut aus, nicht perfekt aber das ist es auch nativ meist nicht. Aber auch bei dem Spiel reicht theoretisch die RTX3090 nicht aus um konstante 60Fps zu erreichen.

Das schöne, man kann ja von Spiel zu Spiel, sofern DLSS verfügbar ist, entscheiden ob man es aktivieren möchte oder nicht :)
 

Gurdi

Kokü-Junkie (m/w)
Je nach Grafikeinstellungen und Auflösung, ist jede aktuelle GPU als "schwächere Grafikkarte" einzuordnen ^^

In Cyberpunk in 4K und DLSS Qualität sah das Ergebnis schon sehr gut aus, nicht perfekt aber das ist es auch nativ meist nicht. Aber auch bei dem Spiel reicht theoretisch die RTX3090 nicht aus um konstante 60Fps zu erreichen.

Das schöne, man kann ja von Spiel zu Spiel, sofern DLSS verfügbar ist, entscheiden ob man es aktivieren möchte oder nicht :)
In 4k ist man eigentlich für jede Option dankbar, in UHD funktioniert DLSS auch sehr gut. Zumindest die neue Implementierung.
 

Birdy84

Volt-Modder(in)
Wenn dem so wäre, wie erklärst du dann das prozentual fast gleiche Abschneiden zwischen 6900XT und 3090 mit den getesteten CPUs?*

*Anomalien wie BF5 oder AC ausgeschlossen
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Wenn dem so wäre, wie erklärst du dann das Prozental fast gleiche Abschneiden zwischen 6900XT und 3090 mit den getesteten CPUs?*

*Anomalien wie BF5 oder AC ausgeschlossen
BF 5 ist eine Fehlmessung seitens PCGH, da habe ich bereits drauf hingewiesen.
Eine Radeon macht da geschmeidige 300Fps und da geht sicher noch mehr.
Screenshot (660).png


Ansonsten landen die NV Karten numal in DX12 und die AMD Karten in DX11 früher im Overhead.
Titel wie WDL und AC Valhalla sind aber nunmal sehr CPU intensiv (und übrigens auch sehr Bandbreiten intensiv)

Ein Overhead ist nunmal kein CPU Limit, das wird gerne verwechselt.
 

Gurdi

Kokü-Junkie (m/w)
Die andere Frage ist: warum 4K, wenn man dann eh nen Gang runterschaltet?
Ist so sinnig wie Digitalzoom bei Kameras. ;-P
Weil TV´s das nun mal heute so haben und ich das Display am Convertibel nicht abschrauben kann. Das verlassen der nativen Auflösung am Panel ist immer wenn möglich zu vermeiden.
 

blautemple

Lötkolbengott/-göttin
BF 5 ist eine Fehlmessung seitens PCGH, da habe ich bereits drauf hingewiesen.
Eine Radeon macht da geschmeidige 300Fps und da geht sicher noch mehr.
Anhang anzeigen 1361018

Ansonsten landen die NV Karten numal in DX12 und die AMD Karten in DX11 früher im Overhead.
Titel wie WDL und AC Valhalla sind aber nunmal sehr CPU intensiv (und übrigens auch sehr Bandbreiten intensiv)

Ein Overhead ist nunmal kein CPU Limit, das wird gerne verwechselt.
Also die 300fps beeindrucken mich eher nicht. Ich habe „damals“ mit der 2080 Ti und dem 10900K auch schon 291fps gehabt. Von dem geringeren Treiber Overhead ist da nicht viel zu sehen. Zumal Ryzen in der Szene auch noch stärker als Comet Lake ist.


Edit: Von den P1 Werten mal ganz zu schweigen.
 

Gurdi

Kokü-Junkie (m/w)
Da musst du Dave fragen,er hat dieMessungen zu den beiden Karten gemacht. Die Radeon Messung ist auf jeden Fall nicht korrekt im Heft. Da kam aber auch ein 10700k zum Einsatz soweit ich mich erinnere,die 260Fps der 3090 passen da würde ich sagen.
 

blautemple

Lötkolbengott/-göttin
Da musst du Dave fragen,er hat dieMessungen zu den beiden Karten gemacht. Die Radeon Messung ist auf jeden Fall nicht korrekt im Heft. Da kam aber auch ein 10700k zum Einsatz soweit ich mich erinnere,die 260Fps der 3090 passen da würde ich sagen.
Edit: Ok ich weiß jetzt welche Werte du meinst. Ja die sehen schon sehr merkwürdig aus.
 

Birdy84

Volt-Modder(in)
Ansonsten landen die NV Karten numal in DX12 und die AMD Karten in DX11 früher im Overhead.
Titel wie WDL und AC Valhalla sind aber nunmal sehr CPU intensiv (und übrigens auch sehr Bandbreiten intensiv)

Ein Overhead ist nunmal kein CPU Limit, das wird gerne verwechselt.
Das erklärt aber irgendwie nicht, warum die 3090 im gleichen Verhältnis zur 6900 bleibt.
 
Oben Unten