• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

onkel-foehn

Software-Overclocker(in)
Nvidia ist doch seit ich Grafikkarten kenne der Platzhirsch und ATI (AMD) das kleine Licht welches immer hintendran ist.
Da bringst aber gehörig was durcheinander mein Gutster !
nVidia hatte zwar überwiegend die schnellste Karte im Portfolio (Titan z.B.), aber bei den jeweiligen Gegenspieler hatte NV das Nachsehen !! AMD war schneller, günstiger und hatte mehr RAM. Mehr Strom haben sie (damals) verbraten.
RX 580/90 vs. 1060, V56 vs. 1070, V64 vs. 1080, VII vs. 1080Ti, 5700 vs. 2060, 5700XT vs. 2070.
Dann anno Dazumal mit der 7970 GHz, und der R9 290X/390X und jetzt mit der 6800 vs. 3070, 6800XT vs. 3080 und 6900XT vs. 3090. Und dann halt noch "spitzen" Aktionen von Team Green (970 mit 3,5 GB, Mining ...)
Aber ein jeder soll kaufen was er will/kann/darf :nicken:

MfG Föhn.
Du kannst CP2077 mit RT nicht mal in FullHD auf einer RX6900XT ordentlich zocken... Vergleich das doch mal. :lol:
Für ALLE die KEIN RT brauchen oder wollen zocken CP2077 mit einer RX 6900XT schneller als mit einer 3090 (für 2500 €) !! Vergleich das doch mal. :nicken:

MfG Föhn.
 

Anhänge

  • Bench 1.jpg
    Bench 1.jpg
    214,1 KB · Aufrufe: 27
  • Bench 2.jpg
    Bench 2.jpg
    376,4 KB · Aufrufe: 18
  • Bench 3.jpg
    Bench 3.jpg
    453,6 KB · Aufrufe: 16
  • immer noch der Gleiche.jpg
    immer noch der Gleiche.jpg
    376,4 KB · Aufrufe: 22
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Dennoch schafft die 3080 und 3070 nicht das Verhältnis in einem vernünftigen Maße umzusetzen. Klar hat man ggf. DLSS aber ich glaube nicht dass es der Sinn sein kann, zu hoffen dass ein Spiel es unterstützt damit ich es mit max. Settings spielen kann.
Link Why 10 GB should be enough
Link Mesh Shader
Link Sampler Feedback Streaming
Link DirectStorage

Wir müssen hier wieder bei der aktuellen Faktenlage bleiben.
1. Die neuen Konsolen haben ~10 GB VRAM (16 GB shared memory für das gesamte System)
2. Die allermeisten Gamer haben 8 GB Grafikkarten (siehe aktuelle Steam Umfrage)

Aktuelle Spiele-Designer werden garantiert NICHT mit 16 GB VRAM planen. Durch verbesserte Streaming-Techniken (Links dazu s.o.) wird ein großer VRAM ggf. auch gar nicht mehr benötigt. 4K Texturen müssen ja bereits in die 10 GB VRAM der Konsolen passen, und von 8K Gaming sind wir noch locker ein Jahrzehnt entfernt. Erst mit 8K könnte dann wieder mehr VRAM nötig werden.

Ja, RT kostet VRAM, aber DLSS verringert die VRAM Kosten im gleichen Maße. Spiele mit RT und ohne DLSS laufen leider, wie in diversen Tests zu sehen, in hohen Auflösungen mit weniger als 40 FPS. So will doch keiner zocken, ergo verringert er die Auflösung / schaltet RT ab / nutzt DLSS.

Die hier dargelegten Argumente und Beispiele sind in höchstem Maße theoretischer Natur.

- auf einer 3060 in 4K zocken
- eine 3070 in WQHD, mit max details und RT Psycho befeuern OHNE DLSS

Wer macht denn ernsthaft so einen Unfug? Und welche RT Games unterstützen kein DLSS? Das sind 1-2 (AMD sponsored), und die haben nur 1-2 RT Effekte da sonst die Leistung auch auf den VRAM-Monstern von AMD einbricht...
Für ALLE die KEIN RT brauchen oder wollen zocken CP2077 mit einer RX 6900XT schneller als mit einer 3090 (für 2500 €) !! Vergleich das doch mal. :nicken:

MfG Föhn.
Ach Föhn, ganz ehrlich, mach Dich nicht lächerlich. Ich hab doch schon gesagt dass die AMD Karten in reiner Rasterization und nativer Auflösung besser sind als die NV Pendants. Nur eben nicht was Features und Innovationen angeht. Deine Screenshots sind nicht die Elektronen Wert mit denen sie gesendet wurden, schaltet man auf der 3090 noch DLSS Ultra Quality ein dann überholt sie locker die 6900XT. Mit RT siehts dann richtig düster aus.

Aber hey, ich kann es verstehen, ohne cherry picking bekommt man die AMD Karten halt nicht besser dargestellt. RDNA2 ist was Innovationen / neue Features angeht schlechter als Turing. Die freie Chipfläche wurde in Rohleistung investiert, kann man machen, ist dann halt kacke wenn man Spiele in voller Pracht genießen will (und das inkludiert nun mal RT).
 
Zuletzt bearbeitet:

pietcux

Software-Overclocker(in)
Eine 1080.
Hab mein Savegame aber auch mal mit zu einem Freund genommen und siehe da: 10GB einer 3080 sind auch instant voll, 14 GB sind dann bei der 6700.
Dann suche dir mal jemanden mit ner 3090. da werden ev noch mehr GB VRAM "belegt". Wenn ich meine Fans von dem Nutzten von viel VRAM überzeugen will würde ich dem Treiber auch sagen:
Kopp in'n Nacken, hau voll was geht Alter...
Aber off Topic: deine Palit GTX 1080 Game Rock Premium ist ein richtig gutes Stück Hardware. War meine bisher leiseste Karte @stock, also ohne undervolting.
 

raPid-81

Freizeitschrauber(in)
Eine 1080.
Hab mein Savegame aber auch mal mit zu einem Freund genommen und siehe da: 10GB einer 3080 sind auch instant voll, 14 GB sind dann bei der 6700.
Im Afterburner gibt es die Möglichkeit "Memory usage \ process" anzuzeigen, das ist der tatsächlich genutzte VRAM. Alles andere zeigt nur "allocated VRAM" und ist somit nicht aussagekräftig.
 

onkel-foehn

Software-Overclocker(in)
Aber hey, ich kann es verstehen, ohne cherry picking bekommt man die AMD Karten halt nicht besser dargestellt.
Genau, deswegen kommst ja immer mit RT daher, weil da Team Green punkten kann mit ihren Cores, welches sie sich in "Gold" aufwiegen lassen. Cherrypicking ist auch, einen Link aufzuzeigen, in dem 10 GB für alles reicht.
Und falls doch nicht, gibt es ja die 3060 mit 16 GB und 3090 mit 24 GB, gelle :daumen:

MfG Föhn.
 

Bl4ckR4v3n

Freizeitschrauber(in)
Und was mache ich mit aktuellen Titeln wo der VRAM nicht reicht? Mir es schön reden?
Ob das Verhältnis vernünftig ist oder nicht ist rein subjektiv und hängt von der Software ab. Bei einigen aktuellen Spielen sieht das Verhältnis nicht gut aus, da gebe ich dir recht.
Aber wie sieht es bei künftigen Spielen aus?

Wie ich schon sagte. Gears 5 also moderner DX12 Titel mit UE4 kann vielleicht zeigen wo es hin geht.

4,5 GB VRAM usage, knapp über 4 GB VRAM für den Prozess selbst und das trotz HD Texture Pack getestet im "Open World" gebiet des Spiels. Und das ist eben nur Allocation. Wie viel wirklich benötigt wird ist ja nicht bekannt. Wobei das delta hier vermutlich klein ist. Aber man weiß es nicht...
Das ist nun ein Titel. Klar kann es sein dass die großen den Bedarf mächtig eindampfen, ich erwarte aber dass dann stattdessen dass die Ressourcen dann mittelfristig anderweitig genutzt werden.
Aber wie sieht es bei den kleineren Entwicklern aus? Denn typischerweise sind es die Spiele die gerne wie ein Sack Nüsse laufen. Bezweifel dass dort solche optimierungen kommen und dann der VRAM einen ärgern wird.
 

cl55amg

BIOS-Overclocker(in)
Wenn Du Dich mit der Materie auseinander setzt wirst Du feststellen dass dem in den meisten Fällen tatsächlich so ist. Pu244 hat es ja bereits erklärt.
Wie kommst du denn darauf, dass ich mich mit der Materie nicht befasst habe?

Erklär mir doch mal, warum haben den manche Leute das Gefühl, dass die Bildqualität (wir nutzen mal diesen generischen Begriff) bei der nutzung von DLSS 2.x sogar besser ist als nativ? Hast du da eine Idee woher das kommt?
 

RtZk

Lötkolbengott/-göttin
Aber wie sieht es bei den kleineren Entwicklern aus? Denn typischerweise sind es die Spiele die gerne wie ein Sack Nüsse laufen. Bezweifel dass dort solche optimierungen kommen und dann der VRAM einen ärgern wird.

Welche Spiele von sehr kleinen Entwicklern sind denn VRAM Fresser? Ich hatte da eigentlich immer nur Spiele von großen Studios im Hinterkopf.
 

raPid-81

Freizeitschrauber(in)
Genau, deswegen kommst ja immer mit RT daher, weil da Team Green punkten kann mit ihren Cores, welches sie sich in "Gold" aufwiegen lassen. Cherrypicking ist auch, einen Link aufzuzeigen, in dem 10 GB für alles reicht.
Und falls doch nicht, gibt es ja die 3060 mit 16 GB und 3090 mit 24 GB, gelle :daumen:

MfG Föhn.
Und Du antwortest lieber nur auf stark reduzierte Teile meiner Posts, warum wohl? Weil Dir die Argumente ausgehen? Der Link heißt nur so damit man weiss was dort erklärt wird, tatsächlich ist das eine sehr gute Zusammenfassung von Fakten und Aussichten.

Und was mache ich mit aktuellen Titeln wo der VRAM nicht reicht? Mir es schön reden?
Wo reicht er denn nicht? Welches Spiel, welche Settings?

Hier mal ein Beispiel, CP2077 - WQHD, maxed out Details, RT Psycho:

DLSS On:
memory-dlss on.PNG


DLSS Off:
memory-dlss quality off.PNG


Man sieht sehr schön wie viel VRAM allokiert, tatsächlich genutzt und durch DLSS gespart wird.

Speicher Auslastung = allokiert
Memory usage \ process = tatsächlich benötigt

Das ist nun ein Titel. Klar kann es sein dass die großen den Bedarf mächtig eindampfen, ich erwarte aber dass dann stattdessen dass die Ressourcen dann mittelfristig anderweitig genutzt werden.
Aber wie sieht es bei den kleineren Entwicklern aus? Denn typischerweise sind es die Spiele die gerne wie ein Sack Nüsse laufen. Bezweifel dass dort solche optimierungen kommen und dann der VRAM einen ärgern wird.
Die Liste der Engines die RT und DLSS nativ unterstützen ist bereits lang und wird immer länger. Hier noch mal die bekanntesten:

UE4 (und UE5 wird da keinen Rückschritt machen)
Unity
ID Tech Engine
CryEngine hat es auch auf der Roadmap
Anvil
Frostbite
IW Engine
RED Engine
Source Engine

Somit wird die Verbreitung immer schneller vorangehen.

Was meinst Du mit "Ressourcen dann mittelfristig anderweitig genutzt werden"? Wenn das Streaming schnell genug läuft so dass man nur 1 Sekunde Gameplay im VRAM haben muss, dann benötigt man keine großen Puffer mehr. Wir sprechen hier von einer, im besten Fall, 1/10 Reduktion des VRAM Bedarfs. Damit wären selbst mit 10 GB VRAM 8K Texturen gar kein Problem.
Wie kommst du denn darauf, dass ich mich mit der Materie nicht befasst habe?

Erklär mir doch mal, warum haben den manche Leute das Gefühl, dass die Bildqualität (wir nutzen mal diesen generischen Begriff) bei der nutzung von DLSS 2.x sogar besser ist als nativ? Hast du da eine Idee woher das kommt?
Wie ich darauf komme? Du ignorierst dass DLSS die aktuell beste Anti-Aliasing Technik ist und nicht mal Performance kostet sondern bringt!

Die Antwort auf Deine zweite Frage ist damit auch beantwortet: 4K nativ < DLSS 2.0 da hier automatisch die aktuell beste Kantenglättung mitgeliefert wird. Dünne Objekte (Zäune, Riesenrad Speichen, weit entfernte Schrift etc) flimmern mit DLSS kaum im Vergleich zur nativen Auflösung. Lies doch bitte erst mal etwas dazu bevor Du solche Fragen stellst...
 
Zuletzt bearbeitet:

DaHell63

BIOS-Overclocker(in)

cl55amg

BIOS-Overclocker(in)
Wie kommst du denn darauf, dass ich mich mit der Materie nicht befasst habe?

Erklär mir doch mal, warum haben den manche Leute das Gefühl, dass die Bildqualität (wir nutzen mal diesen generischen Begriff) bei der nutzung von DLSS 2.x sogar besser ist als nativ? Hast du da eine Idee woher das kommt?
@ raPid-81
Hast du eine Antwort darauf?
 

Opprobrium

PC-Selbstbauer(in)
RX 580/90 vs. 1060, V56 vs. 1070, V64 vs. 1080, VII vs. 1080Ti, 5700 vs. 2060, 5700XT vs. 2070.
580 oder 90 und die Vegas waren aber gar nicht günstiger, von der Radeon VII gegen 1080Ti ganz zu schweigen.
Immer dann wann AMD unterlegen ist, müssen sie die Grafikkarten günstiger machen.
5700XT ist heute lahm gegenüber ner 2070 dank DLSS.
 

yojinboFFX

Software-Overclocker(in)
Ich muss selbst als Nvidiaskeptiker sagen, das Ich den Versuch eine ordendlichen Miningbremse einzubauen,sehr hoch anrechne. Ob Sie Das nur tun, um Ihre Miningkarten besser zu verhöckern oder weil Nvidia Uns Gamer ja doch ganz toll lieb hat-Ist Mir Wurscht!
Eigendlich kann mir der ganze Kram wurscht sein, weil zur Zeit selbst Mittelklasse-Grakas so viel kosten, wie Ich für nen ganzen Rechner nicht ausgeben würde!
Gruß Yojinbo, Der mit der 5700/8GB bestimmt noch 3-5 Jährchen klarkommt!
 

onkel-foehn

Software-Overclocker(in)
Die Liste der Engines die RT und DLSS nativ unterstützen ist bereits lang und wird immer länger. Hier noch mal die bekanntesten:

UE4 (und UE5 wird da keinen Rückschritt machen)
Unity
ID Tech Engine
CryEngine hat es auch auf der Roadmap
Anvil
Frostbite
IW Engine
RED Engine
Source Engine

Somit wird die Verbreitung immer schneller vorangehen.
Und immer wieder die gleiche Liste ... :banane:

MfG Föhn.
 

onkel-foehn

Software-Overclocker(in)
580 oder 90 und die Vegas waren aber gar nicht günstiger, von der Radeon VII gegen 1080Ti ganz zu schweigen.
Immer dann wann AMD unterlegen ist, müssen sie die Grafikkarten günstiger machen.
5700XT ist heute lahm gegenüber ner 2070 dank DLSS.
Natürlich waren sie das !!
Die 580 mit 8 GB hat zum Schluss 149 € gekostet und die 590 185 €. Da waren die 1060 bei 239 €.
Bei Release ganz zu schweigen 249 die 580 und 319 die die 1060.


Die 1080 Ti zu Release 819 € (Customs bis 999 €) und die VII 729 €.

Und die 2070 ist auch nur schneller mit DLSS in Spielen jene dies auch unterstützen.
Großes Tennis ... :rollen:

MfG Föhn.
 

Bl4ckR4v3n

Freizeitschrauber(in)
Welche Spiele von sehr kleinen Entwicklern sind denn VRAM Fresser? Ich hatte da eigentlich immer nur Spiele von großen Studios im Hinterkopf.
Serious Sam 4 meine ich kam vom kleinen Entwickler. Hatte auch malandere die mir aber gerade partout nicht einfallen wollen :/
Die meisten die mir direkt einfallen sind fast immer CPU Fresser.
Wo reicht er denn nicht? Welches Spiel, welche Settings?
Ich finde leider den Thread nicht mehr wo einige mal den VRAM Bedarf verglichen hatten. Da waren einige Titel mit Settings dabei.
Wenn ich den gefunden habe verlinke ich den.
Die Liste der Engines die RT und DLSS nativ unterstützen ist bereits lang und wird immer länger. Hier noch mal die bekanntesten:

UE4 (und UE5 wird da keinen Rückschritt machen)
Unity
ID Tech Engine
CryEngine hat es auch auf der Roadmap
Anvil
Frostbite
IW Engine
RED Engine
Source Engine

Somit wird die Verbreitung immer schneller vorangehen.
Also Pro_Painkiller konnte das mit dem Marketingsprech irgendwie besser. War auch wesentlich unterhaltsamer.
Was meinst Du mit "Ressourcen dann mittelfristig anderweitig genutzt werden"? Wenn das Streaming schnell genug läuft so dass man nur 1 Sekunde Gameplay im VRAM haben muss, dann benötigt man keine großen Puffer mehr. Wir sprechen hier von einer, im besten Fall, 1/10 Reduktion des VRAM Bedarfs. Damit wären selbst mit 10 GB VRAM 8K Texturen gar kein Problem.
Ganz einfach. Du hast nur ein 1/10 des VRAM Bedarfs? Dann füllen wir den halt mit deutlich besseren/mehr Texturen. Alleine wenn ich mir Anschaue wie bei den Spielen viele Texturen von näherem aussehen, haben wir da sehr viel potential.
Aber ehrlich gesagt habe ich lieber mehr VRAM Bedarf als ein extremes streaming. Wenn ich sehe wie spät einige Entwickler höher aufgelöste Texturen einladen wenn du näher an das Objekt kommst, graut es mich von extremeren Maßnahmen ;)
 

LastManStanding

PCGH-Community-Veteran(in)
9-10 GB belegt heißt erst mal gar nichts (ist eher positiv) und wird oft einfach genommen obwohl der Speicher nicht gebraucht wird.
Hast du ein Beispiel für ein Spiel bei dem die VRAM Größe deiner Karte bei spielbaren FPS limitiert?
Ich weiß gar nicht genau ob ich jetzt auf den Seiten hieb eingehen soll... Damit du es versuchst zu wiederlegen.
Ich finde es Sinvoll, nein nötig das Texturen und Objekte auch aus den Randbereichen schon in der ferne geladen werden statt erst bei Nährung zu erscheinen. geschweige denn im Fokus. Das hat klar, auch was mit der Engine zu tun, unbestritten. Nur diese stellen sich nunmal Heute auf den verfügbaren Speicher ein.

Ich lasse mich aber jetzt weder auf einen Glaubenskrieg ein noch kam ich nicht ohnhin zu bemerken das du scheinbar überlesen hast das ich sage das Aktuell 8-12 wohl sicher noch "reichen"

Ich spiele fast ausschließlich open-worlds und da kann nach einigen Stunden ohne neuladen schon mal ziemlich viel im speicher sein. Die altbekannten titel brauche ich jetzt sicher nicht erwähnen.
 

raPid-81

Freizeitschrauber(in)
Serious Sam 4 meine ich kam vom kleinen Entwickler. Hatte auch malandere die mir aber gerade partout nicht einfallen wollen :/
Die meisten die mir direkt einfallen sind fast immer CPU Fresser.
Soso, Dir fällt plötzlich nichts ein, ist aber trotzdem so. Kennst Du den Spruch "pics or it didn't happen"?
Die Serious Engine 4 ist von 2014. Also mehr als outdated.
Ich finde leider den Thread nicht mehr wo einige mal den VRAM Bedarf verglichen hatten. Da waren einige Titel mit Settings dabei.
Wenn ich den gefunden habe verlinke ich den.
Dasselbe wie oben, ich bin gespannt ob da noch was kommt.
Also Pro_Painkiller konnte das mit dem Marketingsprech irgendwie besser. War auch wesentlich unterhaltsamer.
Marketingsprech, aha. Die Liste habe ich mir selbst zusammen gesucht, die findet man so nicht auf der NV Page. Trotzdem sind es Fakten, alle genannten Engines haben RT / DLSS bereits nativ dabei oder auf der Roadmap.
Ganz einfach. Du hast nur ein 1/10 des VRAM Bedarfs? Dann füllen wir den halt mit deutlich besseren/mehr Texturen. Alleine wenn ich mir Anschaue wie bei den Spielen viele Texturen von näherem aussehen, haben wir da sehr viel potential.
Aber ehrlich gesagt habe ich lieber mehr VRAM Bedarf als ein extremes streaming. Wenn ich sehe wie spät einige Entwickler höher aufgelöste Texturen einladen wenn du näher an das Objekt kommst, graut es mich von extremeren Maßnahmen ;)
Deutlich bessere / mehr Texturen? Ok, also wenn Texturen mies aussehen, dann liegt das erstmal nicht nur an der Auflösung der Textur. Die kann auch in 8K mies aussehen wenn der Grafiker keinen Bock hatte.

Mehr Texturen? Klar, geht immer, aber mit Sampler Feedback Streaming, Mesh Shading und DirectStorage ist das vollkommen EGAL da nur die NÖTIGEN Texturen on-time geladen werden. Am Ende kommt immer ein Bild raus mit der gleichen Anzahl an Pixeln. Aktuell werden deutlich mehr Texturen geladen als nötig da das Streaming nicht schnell genug ist / die Prediction was geladen sein muss nicht genau genug ist. Das wird sich in Zukunft ändern.
Ich weiß gar nicht genau ob ich jetzt auf den Seiten hieb eingehen soll... Damit du es versuchst zu wiederlegen.
Ich finde es Sinvoll, nein nötig das Texturen und Objekte auch aus den Randbereichen schon in der ferne geladen werden statt erst bei Nährung zu erscheinen. geschweige denn im Fokus. Das hat klar, auch was mit der Engine zu tun, unbestritten. Nur diese stellen sich nunmal Heute auf den verfügbaren Speicher ein.
Siehe oben, aktuelle Engines Streamen noch nicht schnell genug. Die PS5 und XSX sind aber genau darauf ausgelegt, schnelles Streaming durch direkte VRAM - NVME Storage Anbindung, Verringerung der Texturen die Vorgehalten werden müssen und eine bessere Voraussage welche Texturen "gleich" benötigt werden.
Essentially the SSD significantly reduces latency between data delivery and memory itself. The result sees RAM only holding assets and data for the next 1 second of gameplay. The PS4's 8GB of GDDR5 memory held assets for the next 30 seconds of gameplay.
 

IngenieursLP

PC-Selbstbauer(in)
Bitte liefere uns doch eine Quelle / ein Beispiel zu Deiner Behauptung dass mit DLSS alles "wie Matsche" aussieht. Ich habe ja bereits diverse Quellen geliefert die 4K + DLSS Quality als besser empfinden als 4K nativ anhand des Beispiels "Death Stranding" und CP2077. DLSS Quality verdoppelt mal eben die FPS in meinem CP2077 Beispiel weiter oben, bei gleicher Bildqualität...

Du hast meinen Beitrag mal wieder nicht verstanden. Ich habe nie über DLSS gesprochen.
Ich habe darüber gesprochen, dass die Spiele wie matsche aussehen, weil den GPUs der Speicher ausgeht.
 

elmobank

Software-Overclocker(in)
Man kann sagen, was man möchte, DLSS ist ne gute Sache nur leider etwas zu spezifisch. Solange nvidia es nicht eingespielt hat, steht diese Option nicht zur Verfügung - egal ob die Karte es kann oder braucht.

Das ist in meine Augen ein sehr großer Nachteil und das kann auch nicht wegdiskutiert werden...

AMD hat aktuell noch kein Gegenstück und wann es genau kommt (irgendwann Ende des Jahres) weiß man nicht, ob es Opensource wird oder ähnlich wie DLSS spezifisch für nur einige Spiele und wenn es dann da ist, dann weiß auch keiner, wie gut es ist.

Was ich nur nicht verstehe ist, warum sich hier alle wegen der Karten so angehen - jeder hat seine persönlichen Vorlieben und Preferenzen und kann nun die Karte kaufen die man haben möchte und bereit ist, das Geld dafür aus zu geben...
 

raPid-81

Freizeitschrauber(in)
Man kann sagen, was man möchte, DLSS ist ne gute Sache nur leider etwas zu spezifisch. Solange nvidia es nicht eingespielt hat, steht diese Option nicht zur Verfügung - egal ob die Karte es kann oder braucht.

Das ist in meine Augen ein sehr großer Nachteil und das kann auch nicht wegdiskutiert werden...

AMD hat aktuell noch kein Gegenstück und wann es genau kommt (irgendwann Ende des Jahres) weiß man nicht, ob es Opensource wird oder ähnlich wie DLSS spezifisch für nur einige Spiele und wenn es dann da ist, dann weiß auch keiner, wie gut es ist.
Die Liste mit einigen Engines die RT / DLSS nativ unterstützen oder bald unterstützen werden habe ich bereits 2 Mal hier gepostet. Da ist dann nichts mit "solange es NV nicht eingespielt hat", der Developer klickt auf "activate" und DLSS läuft. Eine Optimierung auf ein spezielles Spiel ist seit DLSS 2.0 nicht mehr nötig, nur optional wenn man noch bessere Ergebnisse möchte.

Du hast meinen Beitrag mal wieder nicht verstanden. Ich habe nie über DLSS gesprochen.
Ich habe darüber gesprochen, dass die Spiele wie matsche aussehen, weil den GPUs der Speicher ausgeht.
Du hast explizit auf diesen Teil meines Kommentars geantwortet:

raPid-81 schrieb:
Dass AMD sein DLSS Pendant ein Jahr verschiebt? Egal, braucht keiner.
DLSS bringt massiv FPS? Aber DLSS 1.0 sah mies aus.
DLSS 2.0 macht es besser? Im Quality Mode kein Unterschied zu nativ erkennbar? Egal, nativ > all. Wen interessieren FPS?
mit:
Richtig! Was bringen mir die meisten FPS, wenn das Spiel danach aussieht wie Matsche?
Aber das bekommen User wie deine Wenigkeit ja nicht mit. Die kaufen sich alle 2 Jahre eine neue GPU und das wars dann.
Das ist für mich eindeutig auf DLSS bezogen gewesen. Keine Ahnung wie ich da etwas anderes hinein interpretieren sollte. Aber selbst wenn Du es anders meinst, WQHD Texturen passen LOCKER in 10 GB VRAM. Siehe meine Screenshots weiter oben, da sind noch 3-4 GB frei trotz vollem RT. Also "Matsche" wird es in WQHD nicht da der VRAM nicht "ausgeht". 4K mit DLSS ist auch überhaupt kein Problem, 4K nativ wird vielleicht eng mit RT + sämtlichen Reglern rechts + HD Texture Pack. Aber das ist absoluter Enthusiasten Bereich und für den gibt es eine 3090.
 

cl55amg

BIOS-Overclocker(in)
Wie ich darauf komme? Du ignorierst dass DLSS die aktuell beste Anti-Aliasing Technik ist und nicht mal Performance kostet sondern bringt!

Die Antwort auf Deine zweite Frage ist damit auch beantwortet: 4K nativ < DLSS 2.0 da hier automatisch die aktuell beste Kantenglättung mitgeliefert wird. Dünne Objekte (Zäune, Riesenrad Speichen, weit entfernte Schrift etc) flimmern mit DLSS kaum im Vergleich zur nativen Auflösung. Lies doch bitte erst mal etwas dazu bevor Du solche Fragen stellst...
Ja DLSS ist ein sehr gutes Anti Aliasing Verfahren, dass steht außer Frage. Man sollte ab er nicht nativ ohne AA mit DLSS 2.0 vergleichen, macht Sinn oder? Wenn dann sollte man ein sehr gutes AA Verfahren mit temporaler Komponente zuschalten und dann vergleichen.

Daher stelle ich die Frage, die ich sehr fair finde, nochmal: Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?

Hast du eine Idee?

Hintergrund der Frage: Wenn du diese Frage nicht beantworten kannst, dann hast du nicht verstanden was DLSS macht und reitest auf einer Welle von Halbwissen und verwirrst damit andere User in diesem Forum.
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Ja DLSS ist ein sehr gutes Anti Aliasing Verfahren, dass steht außer Frage. Man sollte ab er nicht nativ ohne AA mit DLSS 2.0 vergleichen, macht Sinn oder? Wenn dann sollte man ein sehr gutes AA Verfahren mit temporaler Komponente zuschalten und dann vergleichen.

Daher stelle ich die Frage, die ich sehr fair finde, nochmal: Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?

Hast du eine Idee?

Hintergrund der Frage: Wenn du diese Frage nicht beantworten kannst, dann hast du nicht verstanden was DLSS macht und reitest auf einer Welle von Halbwissen und verwirrst damit andere User in diesem Forum.
Hi, vlt. kannst Du das mir erklären ?
Ich mein ich kann mir das herleiten, aber wissen tue ich das nicht und ich finde es sehr interessant.

Bisher gehe ich davon aus, dass DLSS gelernte Details für passende Oberflächen hinzufügt, Details die normal halt gar nicht dargestellt werden, dass würde dann auch bedeuten, dass es verfäscht ist, aber näher an dem, was man aus der realen Welt kennt und daher "besser".

Aber ich habe wirklich keine Ahnung.

Grüße
 

raPid-81

Freizeitschrauber(in)
Ja DLSS ist ein sehr gutes Anti Aliasing Verfahren, dass steht außer Frage. Man sollte ab er nicht nativ ohne AA mit DLSS 2.0 vergleichen, macht Sinn oder? Wenn dann sollte man ein sehr gutes AA Verfahren mit temporaler Komponente zuschalten und dann vergleichen.

Daher stelle ich die Frage, die ich sehr fair finde, nochmal: Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?

Hast du eine Idee?

Hintergrund der Frage: Wenn du diese Frage nicht beantworten kannst, dann hast du nicht verstanden was DLSS macht und reitest auf einer Welle von Halbwissen und verwirrst damit andere User in diesem Forum.
DLSS basiert auf einem neuralen Netz welches durch Nvidia mit "perfekten" Frames (16K Anti-Aliased + Motion Vectors für bessere Prediction) trainiert und per Treiber ausgeliefert wird. DLSS funktioniert besser in hohen Auflösungen da hier die Anzahl der Pixel (aufgrund höherer interner Render Resolution) höher und somit die Trefferrate besser ist.

DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. Der DLSS Algorithmus läuft auf den Tensor Cores, diese sind speziell für Matrixmultiplikationen gedacht. DLSS bringt übrigens nichts bei hohen FPS da die Matrixmultiplikationen relativ "lange" brauchen. Ich kenne nicht die genaue FPS Grenze, aber es gibt eine ab der DLSS automatisch deaktiviert wird.

Und jetzt kommst Du mit "aber dann wird ja ein verändertes Frame ausgegeben welches so gar nicht gedacht war". Das stimmt, es werden unter Umständen Details hinzugefügt die auf dem "Source" Frame nicht zu sehen waren. Die Vergleichs-Bilder kenne ich und ich muss sagen: wen juckt es? Da ist ja nicht plötzlich ein Totenkopf anstatt eines menschlichen Gesichts zu sehen oder ähnliches, es sind minimale Details die man im Spielgeschehen sowieso kaum wahrnimmt. Bisher konnte man nur per Screenshot und maximalem Zoom solche Unterschiede aufzeigen. Und die Trefferrate wird über die Zeit immer besser, das neuronale Netz wird ständig trainiert und per Treiber kommen regelmäßig Updates.

Am Ende steht oben rechts ein doppelter FPS Counter (im Quality Mode wohlgemerkt) und ich (sowie diverse Fachmagazine) bemerke keinen Unterschied beim zocken.

Hier ein Beispiel Bild von der NV Page, da sieht man gut das automatische Anti-Aliasing und hinzufügen von Details (man beachte die Reling auf dem Gebäude):

1618861032189.png

Bisher gehe ich davon aus, dass DLSS gelernte Details für passende Oberflächen hinzufügt, Details die normal halt gar nicht dargestellt werden, dass würde dann auch bedeuten, dass es verfäscht ist, aber näher an dem, was man aus der realen Welt kennt und daher "besser".
Das stimmt soweit ganz gut, nur dass die "perfect" Frames 16K Images aus Spielen sind.

Hier mal ein Zitat von der NV Page, da wird das Training gut erklärt:

Q: How does DLSS work?

A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognize aliased inputs and generate high quality anti-aliased images that match the “perfect frame” as closely as possible. We then repeat the process, but this time we train the model to generate additional pixels rather than applying AA. This has the effect of increasing the resolution of the input. Combining both techniques enables the GPU to render the full monitor resolution at higher frame rates.

Es wird also aus einem Anti-Aliased 16K Image interpoliert an welcher Stelle Pixel hinzugefügt werden. Deswegen ist das Ergebnis auch "besser" als 4K + Anti-Aliasing weil Pixel hinzugefügt werden. Anti-Aliasing glättet ja nur Kanten anhand eines simpleren Algorithmus.
 
Zuletzt bearbeitet:

Olstyle

Moderator
Teammitglied
Leider wirkt aber DLSS nur auf relativ feine, hochfrequente Details. Eher Großflächiges sieht klar schlechter aus als in nativer Auflösung. Z.B. in Control die Bilder an der Wand. -> es ist ein sehr guter Upscaler aber immernoch ein Upscaler. Bzw. es müsste kein Upscaler sein, aber NV findet die "Glättung" so toll dass sie sie hart mit Upscaling verbinden weil sich FPS besser verkaufen als Bildqualität.
Toll wäre wenn der schon ewig angekündigte Modus mit voller Renderauflösung endlich kommen würde.
 
Zuletzt bearbeitet:

cl55amg

BIOS-Overclocker(in)
Und jetzt kommst Du mit "aber dann wird ja ein verändertes Frame ausgegeben welches so gar nicht gedacht war". Das stimmt, es werden unter Umständen Details hinzugefügt die auf dem "Source" Frame nicht zu sehen waren.
Wieso legst du mir denn Aussagen in den Mund, von denen du denkst, dass ich diese in der Zukunft mache?

Du schreibst sehr lange Texte und man merkt, dass das meiste davon reproduziertes Wissen ist. Meine Frage hast du nicht beantwortet.

Hi, vlt. kannst Du das mir erklären ?
Ich mein ich kann mir das herleiten, aber wissen tue ich das nicht und ich finde es sehr interessant.

Bisher gehe ich davon aus, dass DLSS gelernte Details für passende Oberflächen hinzufügt, Details die normal halt gar nicht dargestellt werden, dass würde dann auch bedeuten, dass es verfäscht ist, aber näher an dem, was man aus der realen Welt kennt und daher "besser".

Aber ich habe wirklich keine Ahnung.

Grüße
Hey! Also ohne jetzt in alle Details rein zu gehen muss man wissen, dass DLSS von sehr smarten Leuten entwickelt wurde die es darauf abgeziehlt haben, dieses Feature maximal gut zu vermarkten. Screenshots auf Hardware Seiten auf denen man vermeintlich eine "schärfere Darstellung sieht" als die der nativen Auflösung war genau das, was man wollte. Um das zu erreichen arbeiten sie mit einigen Tricks, die das rekontruktierte Frame zusätzlich "schärfen" und Details einfügen, die eigentlich garnicht da sein sollten. Dies ist eine Annäherung die mal gut passen kann und auch mal daneben geht.

Einer der Tricks ist einfach, dass man mit einer Art Schärfefilter nutzt, zusätzlich zu der Image Reconstruction. Dies lässt das Bild schärfer aussehen, was aber natürlich dazu führt, dass man diverse Artefakte in der Darstellung hat, vor allem in der Bewegung.

Leider wirkt aber DLSS nur auf relativ feine, hochfrequente Details. Eher Großflächiges sieht klar schlechter aus als in nativer Auflösung. Z.B. in Control die Bilder an der Wand. -> es ist ein sehr guter Upscaler aber immernoch ein Upscaler. Bzw. es müsste kein Upscaler sein, aber NV findet die "Glättung" so toll dass sie sie hart mit Upscaling verbinden weil sich FPS besser verkaufen als Bildqualität.
Toll wäre wenn der schon ewig angekündigte Modus mit voller Renderauflösung endlich kommen würde.
Ich stimme dir vollkommen zu.
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Wieso legst du mir denn Aussagen in den Mund, von denen du denkst, dass ich diese in der Zukunft mache?

Du schreibst sehr lange Texte und man merkt, dass das meiste davon reproduziertes Wissen ist. Meine Frage hast du nicht beantwortet.
Korrekt, reproduziertes Wissen da angelesen. Ich wüsste nicht was daran falsch sein soll, ich gebe offen zu kein Upscaling oder KI Spezialist zu sein. Deine Fragen habe ich sehr wohl beantwortet, nach bestem Wissen und Gewissen.

Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?
Es sieht für viele "besser" aus weil viele Rekonstruktionen einfach besser aussehen als nativ da mit einem "Source" Frame in 16K inkl. Anti-Aliasing trainiert wurde. Mehr Details per DLSS im Vergleich zu nativ kommt auch durch die Rekonstruktionen zustande. Wenn Du bessere Erklärungen hast, dann raus damit, oder machst Du einen auf Gurdi und sagst jetzt "wenn Du das nicht mal weisst dann ist jegliche Diskussion unnütz"? Das wäre das typische Ausweichen, ich erwarte ehrlich gesagt nichts anderes.
 

raPid-81

Freizeitschrauber(in)
Es sieht nicht besser aus als nativ mit gutem AA! Verbreite doch nicht so einen Unsinn. Oben habe ich ein ganzes Video dazu verlinkt.
Kommt aufs Spiel an, Control war das erste DLSS 2.0 Spiel wenn ich mich richtig erinnere. In Deinem Video wird übrigens zu 90% 4K DLSS Performance (1080p to 2160p) vs 4K nativ verglichen. Erst ganz am Ende sieht man 4K Quality DLSS (1440p to 2160p) vs 4K nativ, und da ist der Unterschied deutlich geringer.

Diverse Fachpressen sehen 4K DLSS übrigens vor 4K nativ in Death Stranding:

Link

ComputerBase: »Besser als native Auflösung«​

Laut ComputerBase bietet Death Stranding aktuell »die beste Umsetzung« von DLSS 2.0 (derzeit gibt es fünf Spiele mit entsprechendem Support: Death Stranding, Control, MechWarrior 5: Mercenaries, Deliver Us The Moon, Wolfenstein: Youngblood).

Besser und schneller: Der KI-Upscaler liefert im Qualitätsmodus demnach ein besseres Bild als es die native Auflösung vermag. In puncto Performance kann DLSS 2.0 ebenfalls überzeugen. Während eine RTX 2070 Super in Ultra HD (UHD, 4K) nativ durchschnittlich 58,8 FPS erzielt, sind es im DLSS-Leistungsmodus 104,2. Mit dem DLSS-Qualitätsmodus sind es 83,5 FPS.

Hardwareluxx: »DLSS 2.0 liefert die beste Bildqualität«​

Mehr Details durch DLSS 2.0: Im Test der Kollegen von Hardwareluxx zeigt sich ein ähnliches Bild. In den meisten Fällen ist DLSS 2.0 demnach nicht nur auf Augenhöhe mit dem nativen Rendering und es müssen keine Einschränkungen der Darstellungsqualität hingenommen werden, sondern liefert sogar mehr Details.

DSOGaming: »DLSS 2.0 etwas besser als natives 4K«​

Besser trotz vereinzelter Artefakte: DSOGaming kommt zu dem Schluss, dass DLSS 2.0 in Death Stranding sowohl die native 4K-Auflösung als auch FidelityFX hinter sich lässt - wenn auch nur geringfügig. Der Einsatz von DLSS 2.0 hat zwar zu vereinzelter Artefaktbildung geführt, dennoch sieht DSOGaming den KI-Upscaler vor der nativen Auflösung.

Toms Hardware: »Wusste nicht ob es [DLSS] an war oder nicht«​

Ohne die FPS-Anzeige hätte der Preview-Tester von Toms Hardware nicht sagen können, ob DLSS aktiviert war oder nicht. Sogar bei näherer Betrachtung von Screenshots war die Unterscheidung demnach schwer. Der Performancemodus schneidet im Detail zwar etwas schlechter ab als der Qualitätsmodus, aber gerade bei höheren Auflösungen fällt das kaum mehr auf.

Es kommt also aufs Spiel an und wie gut das KI-Training war. Beide Spiele sind von Ende 2019, mittlerweile dürfte die Rekonstruktion besser geworden sein.

Edit: übrigens warst DU derjenige der "viele Leute empfinden DLSS besser als nativ" in den Raum geworfen hat, ich habe das nirgends behauptet. Nur Vermutungen angestellt warum die Leute so empfinden könnten.
 

Zetta

PC-Selbstbauer(in)
solange die 6900xt langsamer ist, kann ich nicht lachen. Zahlen sind nicht alles.
Resident Evil 8 wird dich eines besseren lehren. Alles unter 16 GB ist weder zukunftstauglich noch einer Karte mit solcher Rohleistung gerecht. Aber redet es weiter schön. AMD hat mit RDNA 2 fast alles richtig gemacht. Der Infinity Cache z.b lässt Borderlands 3 butterweich laufen. Selbst bei den heftigsten Effektgewittern in Mayhem 10. Was keiner Nvidiakarte (auch meine 3090 nicht) gelingt. Nur die Verfügbarkeit ist lächerlich aber die Ausnahmesituation kann es zum Teil rechtfertigen.
 

raPid-81

Freizeitschrauber(in)
Resident Evil 8 wird dich eines besseren lehren. Alles unter 16 GB ist weder zukunftstauglich noch einer Karte mit solcher Rohleistung gerecht. Aber redet es weiter schön. AMD hat mit RDNA 2 fast alles richtig gemacht. Der Infinity Cache z.b lässt Borderlands 3 butterweich laufen. Selbst bei den heftigsten Effektgewittern in Mayhem 10. Was keiner Nvidiakarte (auch meine 3090 nicht) gelingt. Nur die Verfügbarkeit ist lächerlich aber die Ausnahmesituation kann es zum Teil rechtfertigen.
Resident Evil 8 kommt für PlayStation 4, Xbox One, PlayStation 5, Xbox Series, Google Stadia, PC. Wie geht das mit 16 GB auf allem außer PC und Stadia? PS5 und XSX haben ja auch 4K als Target Resolution und "nur" 10 GB VRAM.
 

seahawk

Volt-Modder(in)
Man muss einfach einsehen, dass die AMD 6800, 6800XT und 6900 perfekte Karten sind. Es gibt nichts Besseres. Klar, dass die schwer zu bekommen sind, denn jede Person, die sich für Gaming interessiert, möchte eine kraftvolle, moderne und zeitgemäße Radeon in ihrem Rechner haben.
 

ChrisMK72

PCGH-Community-Veteran(in)
dass mit DLSS alles "wie Matsche" aussieht
Bei dem "Matsche-Argument" muss man natürlich fairerweise noch dazu sagen, dass man meist irgendeine Art von Kantenglättung eh benötigt, wenn man nicht flackernde Zäune/Bäume usw. haben will.
Is nur die Frage wie Matsche das wird und wie gut das Ergebnis aussieht.

Bei "Performance DLSS" könnt's für mich auch noch n Tick schärfer aussehen. Is halt recht niedrige Auflösung(edit: von WQHD kommend).
Das mit der 16k Basis konnte ich noch nicht so recht sehen, dass Performance DLSS dann besser aussieht, als natives WQHD. Aber soll es anscheinend auch nicht.

Dieses Quality DLSS bringt mir teils noch zu wenig fps/performance, wenn man RT auf Psycho-Level nutzen möchte.

Aber ich sehe das Ganze eh als erste Schritte an.
Nvidia hat ja auch erst "vor kurzem" (Turing) damit angefangen. AMD/Radeons gerade erst Anfänge.

Schaun wir mal was innerhalb der nächsten 2 Gens so abgeht.

Freue mich jedenfalls auf die Zukunft der Zockerei, auch mit dem ganzen Technikkram und so lange kann man definitiv auch mit ner 3080 10GB sehr gut zocken, in WQHD.

Ich seh das alles nich so eng.
Warum muss man da seitenlang drüber rummeckern ?
Lieber ne Runde zocken, was ich merkwürdigerweise mit der 10GB Karte hervorragend mache, die ganze Zeit.
Die is ja schon alt, meine 3080(edit: "letztes Jahr" gekauft :D ). Wird langsam Zeit für den Nachfolger. ;) Gibt's schon Infos zur 4080 ? :D
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Klar, die 4080 kommt mit 9GB und DLSS2.0.

Die kommt völlig ohne, RTX IO macht VRAM doch überflüssig!


Ich hab da ein paar Infos aus gesicherter Quelle.

Intel/Nvidia/AMD haben da was am köcheln, so dass die Welt GPU demnächst per öffentlichem Streaming jedem zur Verfügung steht, für lediglich 99,99 im Abo/Monat. :D
Im Silicon Valley sind sie doch eh alle dicke miteinander, die Nachbarn. Aber schön, dass wir denken, das wären Konkurrenten. Hauptsache die Kohle, das Know-how, der Vorsprung durch Technik(auch für Rüstung/Wirtschaft usw.) bleibt in den USA, egal ob rot, grün, oder blau.

Aber was machen wir nur im Forum, wenn wir nicht mehr über die "Anderen" lästern können ? :ugly:
OMG ! :D

Könnte China, Süd-Korea, oder Russland nicht mal was zu unserem Klickpotential beitragen(edit: oder Japan ?) ?

Das wäre tatsächlich mal interessant.
 
Zuletzt bearbeitet:
Oben Unten