RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

Bitte liefere uns doch eine Quelle / ein Beispiel zu Deiner Behauptung dass mit DLSS alles "wie Matsche" aussieht. Ich habe ja bereits diverse Quellen geliefert die 4K + DLSS Quality als besser empfinden als 4K nativ anhand des Beispiels "Death Stranding" und CP2077. DLSS Quality verdoppelt mal eben die FPS in meinem CP2077 Beispiel weiter oben, bei gleicher Bildqualität...

Du hast meinen Beitrag mal wieder nicht verstanden. Ich habe nie über DLSS gesprochen.
Ich habe darüber gesprochen, dass die Spiele wie matsche aussehen, weil den GPUs der Speicher ausgeht.
 
Man kann sagen, was man möchte, DLSS ist ne gute Sache nur leider etwas zu spezifisch. Solange nvidia es nicht eingespielt hat, steht diese Option nicht zur Verfügung - egal ob die Karte es kann oder braucht.

Das ist in meine Augen ein sehr großer Nachteil und das kann auch nicht wegdiskutiert werden...

AMD hat aktuell noch kein Gegenstück und wann es genau kommt (irgendwann Ende des Jahres) weiß man nicht, ob es Opensource wird oder ähnlich wie DLSS spezifisch für nur einige Spiele und wenn es dann da ist, dann weiß auch keiner, wie gut es ist.

Was ich nur nicht verstehe ist, warum sich hier alle wegen der Karten so angehen - jeder hat seine persönlichen Vorlieben und Preferenzen und kann nun die Karte kaufen die man haben möchte und bereit ist, das Geld dafür aus zu geben...
 
Man kann sagen, was man möchte, DLSS ist ne gute Sache nur leider etwas zu spezifisch. Solange nvidia es nicht eingespielt hat, steht diese Option nicht zur Verfügung - egal ob die Karte es kann oder braucht.

Das ist in meine Augen ein sehr großer Nachteil und das kann auch nicht wegdiskutiert werden...

AMD hat aktuell noch kein Gegenstück und wann es genau kommt (irgendwann Ende des Jahres) weiß man nicht, ob es Opensource wird oder ähnlich wie DLSS spezifisch für nur einige Spiele und wenn es dann da ist, dann weiß auch keiner, wie gut es ist.
Die Liste mit einigen Engines die RT / DLSS nativ unterstützen oder bald unterstützen werden habe ich bereits 2 Mal hier gepostet. Da ist dann nichts mit "solange es NV nicht eingespielt hat", der Developer klickt auf "activate" und DLSS läuft. Eine Optimierung auf ein spezielles Spiel ist seit DLSS 2.0 nicht mehr nötig, nur optional wenn man noch bessere Ergebnisse möchte.

Du hast meinen Beitrag mal wieder nicht verstanden. Ich habe nie über DLSS gesprochen.
Ich habe darüber gesprochen, dass die Spiele wie matsche aussehen, weil den GPUs der Speicher ausgeht.
Du hast explizit auf diesen Teil meines Kommentars geantwortet:

raPid-81 schrieb:
Dass AMD sein DLSS Pendant ein Jahr verschiebt? Egal, braucht keiner.
DLSS bringt massiv FPS? Aber DLSS 1.0 sah mies aus.
DLSS 2.0 macht es besser? Im Quality Mode kein Unterschied zu nativ erkennbar? Egal, nativ > all. Wen interessieren FPS?
mit:
Richtig! Was bringen mir die meisten FPS, wenn das Spiel danach aussieht wie Matsche?
Aber das bekommen User wie deine Wenigkeit ja nicht mit. Die kaufen sich alle 2 Jahre eine neue GPU und das wars dann.
Das ist für mich eindeutig auf DLSS bezogen gewesen. Keine Ahnung wie ich da etwas anderes hinein interpretieren sollte. Aber selbst wenn Du es anders meinst, WQHD Texturen passen LOCKER in 10 GB VRAM. Siehe meine Screenshots weiter oben, da sind noch 3-4 GB frei trotz vollem RT. Also "Matsche" wird es in WQHD nicht da der VRAM nicht "ausgeht". 4K mit DLSS ist auch überhaupt kein Problem, 4K nativ wird vielleicht eng mit RT + sämtlichen Reglern rechts + HD Texture Pack. Aber das ist absoluter Enthusiasten Bereich und für den gibt es eine 3090.
 
Wie ich darauf komme? Du ignorierst dass DLSS die aktuell beste Anti-Aliasing Technik ist und nicht mal Performance kostet sondern bringt!

Die Antwort auf Deine zweite Frage ist damit auch beantwortet: 4K nativ < DLSS 2.0 da hier automatisch die aktuell beste Kantenglättung mitgeliefert wird. Dünne Objekte (Zäune, Riesenrad Speichen, weit entfernte Schrift etc) flimmern mit DLSS kaum im Vergleich zur nativen Auflösung. Lies doch bitte erst mal etwas dazu bevor Du solche Fragen stellst...
Ja DLSS ist ein sehr gutes Anti Aliasing Verfahren, dass steht außer Frage. Man sollte ab er nicht nativ ohne AA mit DLSS 2.0 vergleichen, macht Sinn oder? Wenn dann sollte man ein sehr gutes AA Verfahren mit temporaler Komponente zuschalten und dann vergleichen.

Daher stelle ich die Frage, die ich sehr fair finde, nochmal: Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?

Hast du eine Idee?

Hintergrund der Frage: Wenn du diese Frage nicht beantworten kannst, dann hast du nicht verstanden was DLSS macht und reitest auf einer Welle von Halbwissen und verwirrst damit andere User in diesem Forum.
 
Zuletzt bearbeitet:
Ja DLSS ist ein sehr gutes Anti Aliasing Verfahren, dass steht außer Frage. Man sollte ab er nicht nativ ohne AA mit DLSS 2.0 vergleichen, macht Sinn oder? Wenn dann sollte man ein sehr gutes AA Verfahren mit temporaler Komponente zuschalten und dann vergleichen.

Daher stelle ich die Frage, die ich sehr fair finde, nochmal: Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?

Hast du eine Idee?

Hintergrund der Frage: Wenn du diese Frage nicht beantworten kannst, dann hast du nicht verstanden was DLSS macht und reitest auf einer Welle von Halbwissen und verwirrst damit andere User in diesem Forum.
Hi, vlt. kannst Du das mir erklären ?
Ich mein ich kann mir das herleiten, aber wissen tue ich das nicht und ich finde es sehr interessant.

Bisher gehe ich davon aus, dass DLSS gelernte Details für passende Oberflächen hinzufügt, Details die normal halt gar nicht dargestellt werden, dass würde dann auch bedeuten, dass es verfäscht ist, aber näher an dem, was man aus der realen Welt kennt und daher "besser".

Aber ich habe wirklich keine Ahnung.

Grüße
 
Ja DLSS ist ein sehr gutes Anti Aliasing Verfahren, dass steht außer Frage. Man sollte ab er nicht nativ ohne AA mit DLSS 2.0 vergleichen, macht Sinn oder? Wenn dann sollte man ein sehr gutes AA Verfahren mit temporaler Komponente zuschalten und dann vergleichen.

Daher stelle ich die Frage, die ich sehr fair finde, nochmal: Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?

Hast du eine Idee?

Hintergrund der Frage: Wenn du diese Frage nicht beantworten kannst, dann hast du nicht verstanden was DLSS macht und reitest auf einer Welle von Halbwissen und verwirrst damit andere User in diesem Forum.
DLSS basiert auf einem neuralen Netz welches durch Nvidia mit "perfekten" Frames (16K Anti-Aliased + Motion Vectors für bessere Prediction) trainiert und per Treiber ausgeliefert wird. DLSS funktioniert besser in hohen Auflösungen da hier die Anzahl der Pixel (aufgrund höherer interner Render Resolution) höher und somit die Trefferrate besser ist.

DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. Der DLSS Algorithmus läuft auf den Tensor Cores, diese sind speziell für Matrixmultiplikationen gedacht. DLSS bringt übrigens nichts bei hohen FPS da die Matrixmultiplikationen relativ "lange" brauchen. Ich kenne nicht die genaue FPS Grenze, aber es gibt eine ab der DLSS automatisch deaktiviert wird.

Und jetzt kommst Du mit "aber dann wird ja ein verändertes Frame ausgegeben welches so gar nicht gedacht war". Das stimmt, es werden unter Umständen Details hinzugefügt die auf dem "Source" Frame nicht zu sehen waren. Die Vergleichs-Bilder kenne ich und ich muss sagen: wen juckt es? Da ist ja nicht plötzlich ein Totenkopf anstatt eines menschlichen Gesichts zu sehen oder ähnliches, es sind minimale Details die man im Spielgeschehen sowieso kaum wahrnimmt. Bisher konnte man nur per Screenshot und maximalem Zoom solche Unterschiede aufzeigen. Und die Trefferrate wird über die Zeit immer besser, das neuronale Netz wird ständig trainiert und per Treiber kommen regelmäßig Updates.

Am Ende steht oben rechts ein doppelter FPS Counter (im Quality Mode wohlgemerkt) und ich (sowie diverse Fachmagazine) bemerke keinen Unterschied beim zocken.

Hier ein Beispiel Bild von der NV Page, da sieht man gut das automatische Anti-Aliasing und hinzufügen von Details (man beachte die Reling auf dem Gebäude):

1618861032189.png

Bisher gehe ich davon aus, dass DLSS gelernte Details für passende Oberflächen hinzufügt, Details die normal halt gar nicht dargestellt werden, dass würde dann auch bedeuten, dass es verfäscht ist, aber näher an dem, was man aus der realen Welt kennt und daher "besser".
Das stimmt soweit ganz gut, nur dass die "perfect" Frames 16K Images aus Spielen sind.

Hier mal ein Zitat von der NV Page, da wird das Training gut erklärt:

Q: How does DLSS work?

A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognize aliased inputs and generate high quality anti-aliased images that match the “perfect frame” as closely as possible. We then repeat the process, but this time we train the model to generate additional pixels rather than applying AA. This has the effect of increasing the resolution of the input. Combining both techniques enables the GPU to render the full monitor resolution at higher frame rates.

Es wird also aus einem Anti-Aliased 16K Image interpoliert an welcher Stelle Pixel hinzugefügt werden. Deswegen ist das Ergebnis auch "besser" als 4K + Anti-Aliasing weil Pixel hinzugefügt werden. Anti-Aliasing glättet ja nur Kanten anhand eines simpleren Algorithmus.
 
Zuletzt bearbeitet von einem Moderator:
Leider wirkt aber DLSS nur auf relativ feine, hochfrequente Details. Eher Großflächiges sieht klar schlechter aus als in nativer Auflösung. Z.B. in Control die Bilder an der Wand. -> es ist ein sehr guter Upscaler aber immernoch ein Upscaler. Bzw. es müsste kein Upscaler sein, aber NV findet die "Glättung" so toll dass sie sie hart mit Upscaling verbinden weil sich FPS besser verkaufen als Bildqualität.
Toll wäre wenn der schon ewig angekündigte Modus mit voller Renderauflösung endlich kommen würde.
 
Zuletzt bearbeitet:
Und jetzt kommst Du mit "aber dann wird ja ein verändertes Frame ausgegeben welches so gar nicht gedacht war". Das stimmt, es werden unter Umständen Details hinzugefügt die auf dem "Source" Frame nicht zu sehen waren.
Wieso legst du mir denn Aussagen in den Mund, von denen du denkst, dass ich diese in der Zukunft mache?

Du schreibst sehr lange Texte und man merkt, dass das meiste davon reproduziertes Wissen ist. Meine Frage hast du nicht beantwortet.

Hi, vlt. kannst Du das mir erklären ?
Ich mein ich kann mir das herleiten, aber wissen tue ich das nicht und ich finde es sehr interessant.

Bisher gehe ich davon aus, dass DLSS gelernte Details für passende Oberflächen hinzufügt, Details die normal halt gar nicht dargestellt werden, dass würde dann auch bedeuten, dass es verfäscht ist, aber näher an dem, was man aus der realen Welt kennt und daher "besser".

Aber ich habe wirklich keine Ahnung.

Grüße
Hey! Also ohne jetzt in alle Details rein zu gehen muss man wissen, dass DLSS von sehr smarten Leuten entwickelt wurde die es darauf abgeziehlt haben, dieses Feature maximal gut zu vermarkten. Screenshots auf Hardware Seiten auf denen man vermeintlich eine "schärfere Darstellung sieht" als die der nativen Auflösung war genau das, was man wollte. Um das zu erreichen arbeiten sie mit einigen Tricks, die das rekontruktierte Frame zusätzlich "schärfen" und Details einfügen, die eigentlich garnicht da sein sollten. Dies ist eine Annäherung die mal gut passen kann und auch mal daneben geht.

Einer der Tricks ist einfach, dass man mit einer Art Schärfefilter nutzt, zusätzlich zu der Image Reconstruction. Dies lässt das Bild schärfer aussehen, was aber natürlich dazu führt, dass man diverse Artefakte in der Darstellung hat, vor allem in der Bewegung.

Leider wirkt aber DLSS nur auf relativ feine, hochfrequente Details. Eher Großflächiges sieht klar schlechter aus als in nativer Auflösung. Z.B. in Control die Bilder an der Wand. -> es ist ein sehr guter Upscaler aber immernoch ein Upscaler. Bzw. es müsste kein Upscaler sein, aber NV findet die "Glättung" so toll dass sie sie hart mit Upscaling verbinden weil sich FPS besser verkaufen als Bildqualität.
Toll wäre wenn der schon ewig angekündigte Modus mit voller Renderauflösung endlich kommen würde.
Ich stimme dir vollkommen zu.
 
Zuletzt bearbeitet:
Wieso legst du mir denn Aussagen in den Mund, von denen du denkst, dass ich diese in der Zukunft mache?

Du schreibst sehr lange Texte und man merkt, dass das meiste davon reproduziertes Wissen ist. Meine Frage hast du nicht beantwortet.
Korrekt, reproduziertes Wissen da angelesen. Ich wüsste nicht was daran falsch sein soll, ich gebe offen zu kein Upscaling oder KI Spezialist zu sein. Deine Fragen habe ich sehr wohl beantwortet, nach bestem Wissen und Gewissen.

Warum sieht DLSS 2.0 für viele Leute besser aus als nativ (inkl. sehr gutem AA). Woher kommt es, dass man oft liest, dass mit DLSS mehr Details zu erkennen sind als in der nativen Darstellung?
Es sieht für viele "besser" aus weil viele Rekonstruktionen einfach besser aussehen als nativ da mit einem "Source" Frame in 16K inkl. Anti-Aliasing trainiert wurde. Mehr Details per DLSS im Vergleich zu nativ kommt auch durch die Rekonstruktionen zustande. Wenn Du bessere Erklärungen hast, dann raus damit, oder machst Du einen auf Gurdi und sagst jetzt "wenn Du das nicht mal weisst dann ist jegliche Diskussion unnütz"? Das wäre das typische Ausweichen, ich erwarte ehrlich gesagt nichts anderes.
 
Es sieht nicht besser aus als nativ mit gutem AA! Verbreite doch nicht so einen Unsinn. Oben habe ich ein ganzes Video dazu verlinkt.
Kommt aufs Spiel an, Control war das erste DLSS 2.0 Spiel wenn ich mich richtig erinnere. In Deinem Video wird übrigens zu 90% 4K DLSS Performance (1080p to 2160p) vs 4K nativ verglichen. Erst ganz am Ende sieht man 4K Quality DLSS (1440p to 2160p) vs 4K nativ, und da ist der Unterschied deutlich geringer.

Diverse Fachpressen sehen 4K DLSS übrigens vor 4K nativ in Death Stranding:

Link

ComputerBase: »Besser als native Auflösung«​

Laut ComputerBase bietet Death Stranding aktuell »die beste Umsetzung« von DLSS 2.0 (derzeit gibt es fünf Spiele mit entsprechendem Support: Death Stranding, Control, MechWarrior 5: Mercenaries, Deliver Us The Moon, Wolfenstein: Youngblood).

Besser und schneller: Der KI-Upscaler liefert im Qualitätsmodus demnach ein besseres Bild als es die native Auflösung vermag. In puncto Performance kann DLSS 2.0 ebenfalls überzeugen. Während eine RTX 2070 Super in Ultra HD (UHD, 4K) nativ durchschnittlich 58,8 FPS erzielt, sind es im DLSS-Leistungsmodus 104,2. Mit dem DLSS-Qualitätsmodus sind es 83,5 FPS.

Hardwareluxx: »DLSS 2.0 liefert die beste Bildqualität«​

Mehr Details durch DLSS 2.0: Im Test der Kollegen von Hardwareluxx zeigt sich ein ähnliches Bild. In den meisten Fällen ist DLSS 2.0 demnach nicht nur auf Augenhöhe mit dem nativen Rendering und es müssen keine Einschränkungen der Darstellungsqualität hingenommen werden, sondern liefert sogar mehr Details.

DSOGaming: »DLSS 2.0 etwas besser als natives 4K«​

Besser trotz vereinzelter Artefakte: DSOGaming kommt zu dem Schluss, dass DLSS 2.0 in Death Stranding sowohl die native 4K-Auflösung als auch FidelityFX hinter sich lässt - wenn auch nur geringfügig. Der Einsatz von DLSS 2.0 hat zwar zu vereinzelter Artefaktbildung geführt, dennoch sieht DSOGaming den KI-Upscaler vor der nativen Auflösung.

Toms Hardware: »Wusste nicht ob es [DLSS] an war oder nicht«​

Ohne die FPS-Anzeige hätte der Preview-Tester von Toms Hardware nicht sagen können, ob DLSS aktiviert war oder nicht. Sogar bei näherer Betrachtung von Screenshots war die Unterscheidung demnach schwer. Der Performancemodus schneidet im Detail zwar etwas schlechter ab als der Qualitätsmodus, aber gerade bei höheren Auflösungen fällt das kaum mehr auf.

Es kommt also aufs Spiel an und wie gut das KI-Training war. Beide Spiele sind von Ende 2019, mittlerweile dürfte die Rekonstruktion besser geworden sein.

Edit: übrigens warst DU derjenige der "viele Leute empfinden DLSS besser als nativ" in den Raum geworfen hat, ich habe das nirgends behauptet. Nur Vermutungen angestellt warum die Leute so empfinden könnten.
 
solange die 6900xt langsamer ist, kann ich nicht lachen. Zahlen sind nicht alles.
Resident Evil 8 wird dich eines besseren lehren. Alles unter 16 GB ist weder zukunftstauglich noch einer Karte mit solcher Rohleistung gerecht. Aber redet es weiter schön. AMD hat mit RDNA 2 fast alles richtig gemacht. Der Infinity Cache z.b lässt Borderlands 3 butterweich laufen. Selbst bei den heftigsten Effektgewittern in Mayhem 10. Was keiner Nvidiakarte (auch meine 3090 nicht) gelingt. Nur die Verfügbarkeit ist lächerlich aber die Ausnahmesituation kann es zum Teil rechtfertigen.
 
Resident Evil 8 wird dich eines besseren lehren. Alles unter 16 GB ist weder zukunftstauglich noch einer Karte mit solcher Rohleistung gerecht. Aber redet es weiter schön. AMD hat mit RDNA 2 fast alles richtig gemacht. Der Infinity Cache z.b lässt Borderlands 3 butterweich laufen. Selbst bei den heftigsten Effektgewittern in Mayhem 10. Was keiner Nvidiakarte (auch meine 3090 nicht) gelingt. Nur die Verfügbarkeit ist lächerlich aber die Ausnahmesituation kann es zum Teil rechtfertigen.
Resident Evil 8 kommt für PlayStation 4, Xbox One, PlayStation 5, Xbox Series, Google Stadia, PC. Wie geht das mit 16 GB auf allem außer PC und Stadia? PS5 und XSX haben ja auch 4K als Target Resolution und "nur" 10 GB VRAM.
 
Man muss einfach einsehen, dass die AMD 6800, 6800XT und 6900 perfekte Karten sind. Es gibt nichts Besseres. Klar, dass die schwer zu bekommen sind, denn jede Person, die sich für Gaming interessiert, möchte eine kraftvolle, moderne und zeitgemäße Radeon in ihrem Rechner haben.
 
dass mit DLSS alles "wie Matsche" aussieht
Bei dem "Matsche-Argument" muss man natürlich fairerweise noch dazu sagen, dass man meist irgendeine Art von Kantenglättung eh benötigt, wenn man nicht flackernde Zäune/Bäume usw. haben will.
Is nur die Frage wie Matsche das wird und wie gut das Ergebnis aussieht.

Bei "Performance DLSS" könnt's für mich auch noch n Tick schärfer aussehen. Is halt recht niedrige Auflösung(edit: von WQHD kommend).
Das mit der 16k Basis konnte ich noch nicht so recht sehen, dass Performance DLSS dann besser aussieht, als natives WQHD. Aber soll es anscheinend auch nicht.

Dieses Quality DLSS bringt mir teils noch zu wenig fps/performance, wenn man RT auf Psycho-Level nutzen möchte.

Aber ich sehe das Ganze eh als erste Schritte an.
Nvidia hat ja auch erst "vor kurzem" (Turing) damit angefangen. AMD/Radeons gerade erst Anfänge.

Schaun wir mal was innerhalb der nächsten 2 Gens so abgeht.

Freue mich jedenfalls auf die Zukunft der Zockerei, auch mit dem ganzen Technikkram und so lange kann man definitiv auch mit ner 3080 10GB sehr gut zocken, in WQHD.

Ich seh das alles nich so eng.
Warum muss man da seitenlang drüber rummeckern ?
Lieber ne Runde zocken, was ich merkwürdigerweise mit der 10GB Karte hervorragend mache, die ganze Zeit.
Die is ja schon alt, meine 3080(edit: "letztes Jahr" gekauft :D ). Wird langsam Zeit für den Nachfolger. ;) Gibt's schon Infos zur 4080 ? :D
 
Zuletzt bearbeitet:
Klar, die 4080 kommt mit 9GB und DLSS2.0.

Die kommt völlig ohne, RTX IO macht VRAM doch überflüssig!


Ich hab da ein paar Infos aus gesicherter Quelle.

Intel/Nvidia/AMD haben da was am köcheln, so dass die Welt GPU demnächst per öffentlichem Streaming jedem zur Verfügung steht, für lediglich 99,99 im Abo/Monat. :D
Im Silicon Valley sind sie doch eh alle dicke miteinander, die Nachbarn. Aber schön, dass wir denken, das wären Konkurrenten. Hauptsache die Kohle, das Know-how, der Vorsprung durch Technik(auch für Rüstung/Wirtschaft usw.) bleibt in den USA, egal ob rot, grün, oder blau.

Aber was machen wir nur im Forum, wenn wir nicht mehr über die "Anderen" lästern können ? :ugly:
OMG ! :D

Könnte China, Süd-Korea, oder Russland nicht mal was zu unserem Klickpotential beitragen(edit: oder Japan ?) ?

Das wäre tatsächlich mal interessant.
 
Zuletzt bearbeitet:
Zurück