• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

ChrisMK72

PCGH-Community-Veteran(in)
keiner hier aus China, Süd-Korea, oder Russland?
Ich meinte natürlich neue Technik/GPUs(Firmen).
Nicht Personen.

Eine ganz neue GPU, mit neuer Herangehensweise, neuen Techniken und Innovationen fänd' ich sehr spannend, auch gerade aus Ländern mit Möglichkeiten wie China, Süd-Korea, Japan, oder auch Russland.

Halt nicht nur das Gleiche in rot/grün, oder blau.


edit: Halt tatsächliche, echte Konkurrenz. Nicht diese Pseudo-Silikon Valley Konkurrenz unter sich.


Big Friends:

BigFriends.jpg
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Ich habe meine 5700xt in dem Preiswahn grad für 690 Euro verkauft und warte auf einen Drop bei AMD, um die 6900xt oder die 6800xt abzugreifen
(falls jmd etwas zu den Zeiten weiß, wäre das eine sehr willkommene Hilfe und danke vorab )

Jetzt muss ich mit einer alten Erstazkarte haushalten und gerade da macht sich die Speicherthematik stark bemerkbar.

Eine 7970 mit 3GB Speicher würde ohne Probleme reichen, um mein favorisiertes Game, Hunt Showdown (kann ich nur empfehlen, habe seit 10 Jahren keine Shooter mehr gezockt, aber das ist der Hammer) zu spielen.
Mit 2 GB oder weniger startet es zwar noch, aber durch das ewige Nachladen der Texturen ist man dann nurmehr Kannonenfutter.

Das heißt für mich und in diesem Fall, Speicher macht den Unterschied zwischen spielbar und unspielbar, bzw. unterschied zwischen nützlich und absolut unbrauchbar fürs Gaming.

Ja, ich müsste die Details runterschrauben, das wird von mir, auf Grund von Übersicht, allerdings immer gemacht, ob starke Karte oder schwache.

Grüße
 

Bl4ckR4v3n

Freizeitschrauber(in)
DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. Der DLSS Algorithmus läuft auf den Tensor Cores, diese sind speziell für Matrixmultiplikationen gedacht. DLSS bringt übrigens nichts bei hohen FPS da die Matrixmultiplikationen relativ "lange" brauchen. Ich kenne nicht die genaue FPS Grenze, aber es gibt eine ab der DLSS automatisch deaktiviert wird.
Sprichst du hier gerade vom Training oder der Anwendung von DLSS?
Es wird also aus einem Anti-Aliased 16K Image interpoliert an welcher Stelle Pixel hinzugefügt werden. Deswegen ist das Ergebnis auch "besser" als 4K + Anti-Aliasing weil Pixel hinzugefügt werden. Anti-Aliasing glättet ja nur Kanten anhand eines simpleren Algorithmus.
Weißt du überhaupt was Aliasing ist und wie er zustande kommt? Denn so wie du es gerade beschreibst scheint dem nicht so. Treppchenbildung an Kanten sind nur eine Folge von Aliasing. Zusätzlich hast du in allen Bereichen Informationsverluste. (Unterabtastung)
Das folgende leite ich aus der Regelungstechnik/Signalanalyse ab sollte aber für Grafikausgabe ähnlich gültig sein. Wenn das falsch sein sollte bitte ich die Leute mit Ahnung das zu korrigieren!
Streng genommen dürfte nur Super Sampling Auflösungs-Aliasing effektiv beheben. Wenn man nach Shannon Theorem geht minimum 2x der Auflösung. Aus der Regelungstechnik wird aber eher 3-4x empfohlen wenn möglich.
Damit müsste sich auch DLSS messen denn das eine ist die "Wahrheit" (überspitzt) bei Auflösung x das andere ein intelligentes Upscaling was versucht Aliasing durch Prädiktion zu vermeiden. Das Problem ist aber das es eine Prädiktion bleibt und somit keine Garantie für Richtige Ergebnisse ist. Wenn dann im Vergleich zu SSAA plötzlich Details gibt die es vorher nicht gab, darf man sich durchaus fragen ob diese Korrekt sind.
Andere AA Verfahren versuchen das Problem der Unterabtastung möglichst Kostengünstig zu kaschieren bzw lokal zu lösen. Meines Wissens (Man darf mich auch gerne korrigieren) kann kein anderes AA Verfahren mit SSAA messen wenn es um Bildqualität geht.
Es kommt also aufs Spiel an und wie gut das KI-Training war. Beide Spiele sind von Ende 2019, mittlerweile dürfte die Rekonstruktion besser geworden sein.
Die haben doch mit DLSS 2.0 das einzel Training für Spiele abgeschafft und gegen ein allgemeingültiges Modell ersetzt oder nicht?
Ob eine Rekonstruktion besser wird lässt sich schwer vorhersagen. Modelle gelangen teilweise einfach an einen Punkt wo diese in ihrer Genauigkeit um einen Bestwert schwingen. (Meine Erfahrung)
Ich finde es aber unglaublich faszinierend wie gut die Modelle anscheinend arbeiten können und was man damit rausholt.


Der Vorteil von DLSS ist, dass er in der Lage ist ohne Performanceverluste bzw. sogar mit Performancegewinnen die Bildqualität auf einem hohen Niveau zu halten (Mal von möglichen Bildfehlern aufgrund falscher Prädiktion abgesehen)
Nachdem was ich von der Technik selbst gesehen habe gibt es kaum einen Grund bei Performanceproblemen dieses Feature nicht nutzen zu wollen. Aber die Technik ist bei weitem nicht perfekt.
 

raPid-81

Freizeitschrauber(in)
Sprichst du hier gerade vom Training oder der Anwendung von DLSS?
Der Teil betrifft die lokale Anwendung, nicht das Training.
Weißt du überhaupt was Aliasing ist und wie er zustande kommt? Denn so wie du es gerade beschreibst scheint dem nicht so. Treppchenbildung an Kanten sind nur eine Folge von Aliasing. Zusätzlich hast du in allen Bereichen Informationsverluste. (Unterabtastung)
Das folgende leite ich aus der Regelungstechnik/Signalanalyse ab sollte aber für Grafikausgabe ähnlich gültig sein. Wenn das falsch sein sollte bitte ich die Leute mit Ahnung das zu korrigieren!
Streng genommen dürfte nur Super Sampling Auflösungs-Aliasing effektiv beheben. Wenn man nach Shannon Theorem geht minimum 2x der Auflösung. Aus der Regelungstechnik wird aber eher 3-4x empfohlen wenn möglich.
Damit müsste sich auch DLSS messen denn das eine ist die "Wahrheit" (überspitzt) bei Auflösung x das andere ein intelligentes Upscaling was versucht Aliasing durch Prädiktion zu vermeiden. Das Problem ist aber das es eine Prädiktion bleibt und somit keine Garantie für Richtige Ergebnisse ist. Wenn dann im Vergleich zu SSAA plötzlich Details gibt die es vorher nicht gab, darf man sich durchaus fragen ob diese Korrekt sind.
Andere AA Verfahren versuchen das Problem der Unterabtastung möglichst Kostengünstig zu kaschieren bzw lokal zu lösen. Meines Wissens (Man darf mich auch gerne korrigieren) kann kein anderes AA Verfahren mit SSAA messen wenn es um Bildqualität geht.
Link
Q: How does DLSS work?

A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognize aliased inputs and generate high quality anti-aliased images that match the “perfect frame” as closely as possible. We then repeat the process, but this time we train the model to generate additional pixels rather than applying AA. This has the effect of increasing the resolution of the input. Combining both techniques enables the GPU to render the full monitor resolution at higher frame rates.


Die haben doch mit DLSS 2.0 das einzel Training für Spiele abgeschafft und gegen ein allgemeingültiges Modell ersetzt oder nicht?
Link

So for their second stab at AI upscaling, NVIDIA is taking a different tack. Instead of relying on individual, per-game neural networks, NVIDIA has built a single generic neural network that they are optimizing the hell out of. And to make up for the lack of information that comes from per-game networks, the company is making up for it by integrating real-time motion vector information from the game itself, a fundamental aspect of temporal anti-aliasing (TAA) and similar techniques. The net result is that DLSS 2.0 behaves a lot more like a temporal upscaling solution, which makes it dumber in some ways, but also smarter in others.

Ich habe irgendwo gelesen dass NV Spiele auch "extra" trainieren kann, finde den Link aber gerade nicht mehr. Dazu müssen sie ja eigentlich nur das neurale Netz mit "mehr" Beispielen von dem speziellen Spiel füttern.
 

Bl4ckR4v3n

Freizeitschrauber(in)
Der Teil betrifft die lokale Anwendung, nicht das Training.

DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. Der DLSS Algorithmus läuft auf den Tensor Cores, diese sind speziell für Matrixmultiplikationen gedacht. DLSS bringt übrigens nichts bei hohen FPS da die Matrixmultiplikationen relativ "lange" brauchen. Ich kenne nicht die genaue FPS Grenze, aber es gibt eine ab der DLSS automatisch deaktiviert wird.
Du willst im Betrieb jedes gerenderte Bild mit dem perfekten Frame vergleichen? Du musst also mit jeder Berechnung das exakt richtige 16k Image bereitstellen? Woher sollen diese Images herkommen? Warum werden die nicht anstelle der Berechnung verwendet?
Weißt du wie neuronale Netze funktionieren?

Hast du überhaupt verstanden was ich geschrieben habe?
Ich Frage dich erneut was ist Aliasing? Was bewirkt das? Wie wirkt man dem gezielt entgegen? Was machen die verschiedenen Ansätze und was ggf. nicht?
Erläutere außerdem doch mal in deinen eigenen Worten warum DLSS welches scharfe Details hinzugefügt hat einem SSAA Bild überlegen ist, welches diese Details nur unscharf bzw. nicht dargestellt hat.
Vor allem interessiert mich die Erklärung, wie ein Verfahren welches ausreichend Abtastpunkte verwendet und Aliasing verhindern kann zu so falschen Ergebnissen kommt.

Link

Ich habe irgendwo gelesen dass NV Spiele auch "extra" trainieren kann, finde den Link aber gerade nicht mehr. Dazu müssen sie ja eigentlich nur das neurale Netz mit "mehr" Beispielen von dem speziellen Spiel füttern.
In dem Kontext wäre ein Link klasse. Ich würde erwarten dass ein extra Training die Gefahr von Overfitting mitbringt? Bei einem generellen Einsatz in vielen Spielen wäre das doch ein Problem?
 

pietcux

Software-Overclocker(in)
Die RTX Karte ist nicht mit einem neuronalen Netz verbunden. Das wissen wir schon seit DLSS vorgestellt wurde. Sie führt nur Berechnungen auf Basis der Ergebnisse des von Nvidia geschulten neuronalen Netzwerkes durch. Diese Ergebnisse oder Handlungsanweisungen hält der Treiber vor.
Korrigiere mich bitte wenn ich das falsch verstanden habe.
 

Olstyle

Moderator
Teammitglied
Natürlich ist sie mit einem Netz "verbunden" (also sie kennt dessen Struktur, Gewichte etc., mit Borgs hat das ganze nichts zu tun). Aber sie traversiert es nur statt zu lernen. Letzteres macht NV in House.
 

pietcux

Software-Overclocker(in)
Genau das habe ich gemeint. Direkt verbunden ist jedoch nichts, es funktioniert auch offline.
Es traversiert also danke für den Fachbegriff.
 

onkel-foehn

Software-Overclocker(in)
Kommt aufs Spiel an, Control war das erste DLSS 2.0 Spiel wenn ich mich richtig erinnere. In Deinem Video wird übrigens zu 90% 4K DLSS Performance (1080p to 2160p) vs 4K nativ verglichen. Erst ganz am Ende sieht man 4K Quality DLSS (1440p to 2160p) vs 4K nativ, und da ist der Unterschied deutlich geringer.

Diverse Fachpressen sehen 4K DLSS übrigens vor 4K nativ in Death Stranding:

Link





Es kommt also aufs Spiel an und wie gut das KI-Training war. Beide Spiele sind von Ende 2019, mittlerweile dürfte die Rekonstruktion besser geworden sein.

Edit: übrigens warst DU derjenige der "viele Leute empfinden DLSS besser als nativ" in den Raum geworfen hat, ich habe das nirgends behauptet. Nur Vermutungen angestellt warum die Leute so empfinden könnten.
Immer die selben Links macht es auch NICHT wirklich besser/glaubhafter !
Ist halt einfach DEINE Meinung, Mann (O-Ton vom DUDE). :-S

MfG Föhn.
 

raPid-81

Freizeitschrauber(in)
Du willst im Betrieb jedes gerenderte Bild mit dem perfekten Frame vergleichen? Du musst also mit jeder Berechnung das exakt richtige 16k Image bereitstellen? Woher sollen diese Images herkommen? Warum werden die nicht anstelle der Berechnung verwendet?
Weißt du wie neuronale Netze funktionieren?
Ich habe nichts davon so gesagt, aber schön wie hier die Worte verdreht und Teile weggelassen werden um mich zu denunzieren. Ich habe stark vereinfacht ausgedrückt wie DLSS funktioniert. Ein neuronales Netz wird mit hochaufgelösten Bildern trainiert und die Ergebnisse (Algorithmen) per Treiber ausgeliefert. Auf den Tensor Cores wird dann dieser Algorithmus ausgeführt, das Frame in der down-scaled resolution wird eingegeben, der Algorithmus berechnet an welchen Stellen der Frame sich von den trainierten Werten unterscheidet, und ergänzt diese.

Auf die weiteren Fragen gehe ich nicht ein, diese sind einerseits ziemlich lächerlich (16K Images vorhalten per Treiber, ist klar...) und es ist auch vollkommen irrelevant ob ich weiss wie neuronale Netze funktionieren um zu verstehen wie DLSS funktioniert.

Hast du überhaupt verstanden was ich geschrieben habe?
Ich Frage dich erneut was ist Aliasing? Was bewirkt das? Wie wirkt man dem gezielt entgegen? Was machen die verschiedenen Ansätze und was ggf. nicht?
Erläutere außerdem doch mal in deinen eigenen Worten warum DLSS welches scharfe Details hinzugefügt hat einem SSAA Bild überlegen ist, welches diese Details nur unscharf bzw. nicht dargestellt hat.
Vor allem interessiert mich die Erklärung, wie ein Verfahren welches ausreichend Abtastpunkte verwendet und Aliasing verhindern kann zu so falschen Ergebnissen kommt.
Ich weiss was Aliasing und Moiré-Muster sind und werde keine Abhandlung darüber hier niederschreiben, das lässt sich ganz leicht googlen. Es gibt diverse Anti-Aliasing Techniken (MSAA, TSAA, SSAA, FXAA, SMAA, TXAA, TAA usw usf), alle haben Vor- und Nachteile. Auch das sollte man selbst googlen, das sprengt hier den Rahmen.

Ich habe im übrigen NIE behauptet dass DLSS die BESTE Lösung ist. Es ist aktuell aber mit Abstand die performanteste Lösung bei guter bis sehr guter Bildqualität. SSAA sieht definitiv besser aus, funktioniert aber genau umgekehrt zu DLSS: es berechnet den Frame in höherer Auflösung und downscaled das Ergebnis. Kostet dann halt massiv Leistung die man ja eigentlich für andere Effekte wie RT benötigt.

So, ich habe jetzt schon wieder angefangen hier einen Aufsatz zu tippen, aber dafür ist mir die Zeit echt zu schade, also per copy-paste (ich kann das eh nur in anderen Worten wiedergeben, so funktioniert es halt):

Unser neuronales Grafik-Framework, NGX, trainiert ein Deep Neural Network gegen Zehntausende hochauflösende, schöne Bilder, die offline in einem Supercomputer mit sehr niedrigen Frameraten und 64 Samples pro Pixel gerendert werden. Basierend auf dem Wissen aus unzähligen Trainingsstunden kann das Netzwerk dann Bilder mit niedrigerer Auflösung als Eingabe aufnehmen und hochauflösende, schöne Bilder erstellen.

DLSS 2.0 verfügt über zwei Haupteingaben, die in das KI-Netzwerk fließen:
  1. Niedrige Auflösung, Alias-Bilder, die von der Spiel-Engine gerendert werden.
  2. Niedrige Auflösung, Bewegungsvektoren aus denselben Bildern – auch von der Spiel-Engine generiert.

Bewegungsvektoren sagen uns, in welche Richtung sich Objekte in der Szene von Frame zu Frame bewegen. Diese Vektoren können wir auf die letzte hochauflösende Frame-Ausgabe des Netzwerks anwenden, um zu schätzen, wie der nächste Frame aussehen wird.

https://www.nvidia.com/content/dam/...ss-2-0/nvidia-dlss-2-0-architecture-850px.jpg
Oben: DLSS 2.0-Architektur
Ein spezieller Typ eines KI-Netzwerks, der konvolutionäre Autoencoder, verwendet den aktuellen Frame mit niedriger Auflösung und den letzten Frame mit hoher Auflösung, um pixelgenau zu bestimmen, wie ein aktueller Frame mit höherer Qualität generiert werden kann.
Beim Trainieren des KI-Netzwerks wird dann das Ausgabebild mit einem sehr hochwertigen, nativen um mit 16 K gerenderten Referenzbild verglichen. Der Unterschied wird wieder dem Netzwerk kommuniziert, sodass es mit den Ergebnissen weiter lernen und sich verbessern kann.


In dem Kontext wäre ein Link klasse. Ich würde erwarten dass ein extra Training die Gefahr von Overfitting mitbringt? Bei einem generellen Einsatz in vielen Spielen wäre das doch ein Problem?
Link

But DLSS also requires support to gain notoriety. To lessen the burden on its own team—which have already put "blood, sweat, and tears" into DLSS—Nvidia has removed the requirement to train an AI network on a per game basis. The system will still need to be trained, and support added for a game individually, but it can do so with non-game specific information.
Das habe ich jetzt auf die Schnelle gefunden. Warum sollte das neuronale Netz auch NICHT speziell für ein Spiel trainiert werden können? Es können ja von diesem Spiel viele Bilder eingespeist werden, somit wird die Trefferquote bei ähnlichen Frames erhöht.
 

raPid-81

Freizeitschrauber(in)
Es gibt kein neuronales Netz mehr für ein Spiel, sondern nur noch eines für alle.
Ich habe nichts anderes behauptet. Das "eine" Netz lässt sich aber bestimmt auch gezielt trainieren. Und am Ende kommt sowieso nur ein "kleiner" Algorithmus dabei raus, da lässt sich bestimmt ein weiterer für speziell trainierte Spiele mit ausliefern per Treiber.
 

Schinken

Software-Overclocker(in)
Dann suche dir mal jemanden mit ner 3090. da werden ev noch mehr GB VRAM "belegt". Wenn ich meine Fans von dem Nutzten von viel VRAM überzeugen will würde ich dem Treiber auch sagen:
Kopp in'n Nacken, hau voll was geht Alter...
Aber off Topic: deine Palit GTX 1080 Game Rock Premium ist ein richtig gutes Stück Hardware. War meine bisher leiseste Karte @stock, also ohne undervolting.

Im Afterburner gibt es die Möglichkeit "Memory usage \ process" anzuzeigen, das ist der tatsächlich genutzte VRAM. Alles andere zeigt nur "allocated VRAM" und ist somit nicht aussagekräftig.

Ich rede von der tatsächlichen Belegung, ausgelesen wie du es beschreibst im Afterburnr. Nicht vom reservierten Speicher.

Und Tatsache ist nunmal auch, dass dieses mein Savegame mit meinen 8 und den 10 der 3080 nicht spielbar ist (1-5fps).
Bei den 16 GB der 6800 dagegen flutscht es mit 30fps (dann im CPU Limit)
Ich bin sicher sowohl die Rohleistung der 1080 wie auch auf jeden Fall der 3080 und 6800 reichen für mehr als 30 FPS, limitierten tut nunmal wirklich der VRAM. Nun bin ich nicht der Durchschnittspieler, ich wollte nur aufzeigen warum ich, mit meinen Spielen und Vorlieben, keine Grafikkarte mit weniger als 16 GB kaufen werde.
Ich werde aber auch nicht 1000€ ausgeben also spiele ich etwas anderes und warte auf ne gebrauchte 6800 in 2025 xD.
Es waren 14GB VRam Verbrauch bei einer 12GB Karte? Habt ihr den Rest geschätzt?
6800, pardon.
 

raPid-81

Freizeitschrauber(in)
Ich rede von der tatsächlichen Belegung, ausgelesen wie du es beschreibst im Afterburnr. Nicht vom reservierten Speicher.

Und Tatsache ist nunmal auch, dass dieses mein Savegame mit meinen 8 und den 10 der 3080 nicht spielbar ist (1-5fps).
Bei den 16 GB der 6800 dagegen flutscht es mit 30fps (dann im CPU Limit)
Ich bin sicher sowohl die Rohleistung der 1080 wie auch auf jeden Fall der 3080 und 6800 reichen für mehr als 30 FPS, limitierten tut nunmal wirklich der VRAM. Nun bin ich nicht der Durchschnittspieler, ich wollte nur aufzeigen warum ich, mit meinen Spielen und Vorlieben, keine Grafikkarte mit weniger als 16 GB kaufen werde.
Ich werde aber auch nicht 1000€ ausgeben also spiele ich etwas anderes und warte auf ne gebrauchte 6800 in 2025 xD.

6800, pardon.
Dann zeig doch mal, 5 Minuten Aufwand, ansonsten hat das wieder so ein Geschmäckle...
 

IICARUS

Kokü-Junkie (m/w)
Eine 1080.
Hab mein Savegame aber auch mal mit zu einem Freund genommen und siehe da: 10GB einer 3080 sind auch instant voll, 14 GB sind dann bei der 6700.
Und Tatsache ist nunmal auch, dass dieses mein Savegame mit meinen 8 und den 10 der 3080 nicht spielbar ist (1-5fps).
Oft sitzt das Problem nicht im Rechner, sondern davor. :ugly:
Kann deine Aussage nicht bestätigen, zumindest nicht mit meinem UWQHD Monitor.

Das Spiel ist aber für den CPU-Limit bekannt und wenn hier zu wenig FPS rauskommen, wird es eher am Prozessor bzw. System selbst liegen. Zumindest habe ich mit meinem 9900K und meiner 3080 Grafikkarte keine Probleme und den VRam bekomme ich auch nicht voll.

Settings im Spiel sind schon hart auf Anschlag und können nicht mehr höher gesetzt werden.

Cities_2021_04_21_08_47_45_479.png


K1600_Cities_2021_04_21_09_11_17_220.JPG K1600_Cities_2021_04_21_09_11_54_733.JPG

Mit Cyberpunk 2077 reicht es auch gut aus.
K1600_Cyberpunk2077_2021_01_06_15_02_22_197.JPG

Mit COD wird es etwas knapp, reicht aber noch aus.
K1600_ModernWarfare_2021_04_16_12_17_43_857.JPG
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Freizeitschrauber(in)
Ich habe nichts davon so gesagt, aber schön wie hier die Worte verdreht und Teile weggelassen werden um mich zu denunzieren. Ich habe stark vereinfacht ausgedrückt wie DLSS funktioniert. Ein neuronales Netz wird mit hochaufgelösten Bildern trainiert und die Ergebnisse (Algorithmen) per Treiber ausgeliefert. Auf den Tensor Cores wird dann dieser Algorithmus ausgeführt, das Frame in der down-scaled resolution wird eingegeben, der Algorithmus berechnet an welchen Stellen der Frame sich von den trainierten Werten unterscheidet, und ergänzt diese.
Ich habe eigentlich nichts verdreht. Du schreibst selbst:
DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. [...]
Davor definierst du:
DLSS basiert auf einem neuralen Netz welches durch Nvidia mit "perfekten" Frames (16K Anti-Aliased + Motion Vectors für bessere Prediction) trainiert[...]
Und die Aussage das er ständig mit dem perfekten Frame vergleicht ist schlichtweg falsch. Kann sein dass du es anders gemeint hast aber das steht da leider nicht.
Ich habe die Fragen nur geschrieben weil deine Aussage genau das impliziert hat. Wenn du dich nun denunziiert fühlst dann tut es mir leid. War nicht meine intention.
Ich weiss was Aliasing und Moiré-Muster sind und werde keine Abhandlung darüber hier niederschreiben, das lässt sich ganz leicht googlen. Es gibt diverse Anti-Aliasing Techniken (MSAA, TSAA, SSAA, FXAA, SMAA, TXAA, TAA usw usf), alle haben Vor- und Nachteile. Auch das sollte man selbst googlen, das sprengt hier den Rahmen.
Wenn du es weißt dann ist diese Aussage nicht nachvollziehbar:
Anti-Aliasing glättet ja nur Kanten anhand eines simpleren Algorithmus.
Denn bei richtigen AA Methoden passiert mehr als "nur" Kantenglättung.
Ich habe im übrigen NIE behauptet dass DLSS die BESTE Lösung ist. Es ist aktuell aber mit Abstand die performanteste Lösung bei guter bis sehr guter Bildqualität. SSAA sieht definitiv besser aus, funktioniert aber genau umgekehrt zu DLSS: es berechnet den Frame in höherer Auflösung und downscaled das Ergebnis. Kostet dann halt massiv Leistung die man ja eigentlich für andere Effekte wie RT benötigt.
Da gehe ich sogar mit. DLSS ist hervorragend wenn man die Performance berücksichtigt.
Aber besser bzw. wirkt besser als Nativ + AA ist halt meistens nur dann wenn das AA schlecht umgesetzt wurde.
Sieht man leider wieder in Outriders das TAA miserabel umgesetzt ist.
Einige Dinge laufen mit DLSS besser andere aber wesentlich schlechter. Manche reagieren auch sehr empfindlich auf Artefakte. (ich reagiere kaum darauf)
Für mich bleibt aber DLSS wie nativ+TAA auf einem Niveau. Der eine verschluckt Details der andere packt welche dazu und überzeichnet diese. Beides ist nicht richtig. Je nach Spiel, Szene etc. siegt mal das eine mal das andere.

Link


Das habe ich jetzt auf die Schnelle gefunden. Warum sollte das neuronale Netz auch NICHT speziell für ein Spiel trainiert werden können? Es können ja von diesem Spiel viele Bilder eingespeist werden, somit wird die Trefferquote bei ähnlichen Frames erhöht.
Klar kann man das machen aber nun passiert im ungünstigen Fall genau das was ich vorher schon geschrieben hatte: Overfitting.
Wenn du nur wenige Spiele extra trainierst erhältst du einen Bias in deiner Datenbasis. Wenn es blöd läuft beginnt deine KI eben genau diese Spiele besonders gut darzustellen, kann aber andere Spiele nicht mehr in der Qualität darstellen. Deine KI beherscht dann plötzlich nur noch das was deine Datenbasis gelehrt hat und kann keine allgemeinen Schlüsse ziehen. Das kann so weit gehen, dass du nur noch das Trainingsmaterial vorhersagen kannst.
Wenn du aber wie DLSS 2.0 einen generellen Ansatz verwendest der alles abdecken soll wäre ein solches vorgehen nach meiner Erwartung suboptimal.
Was man in deiner Quelle liest ist, dass ein Training für jedes Spiel mit nicht Spielrelevanten Daten stattfindet. Ich würde mal vermuten genau deswegen. Das wird aber ein richtiger KI Profi vermutlich besser bewerten können.
 

raPid-81

Freizeitschrauber(in)
@Bl4ckR4v3n : Ja, ich habe einige Dinge stark vereinfacht ausgedrückt, mea culpa. Komplette Abhandlungen über Anti-Aliasing, neuronale Netze und DLSS (was ja für deep-learning-super-sampling steht, also auch nur eine Form von super-sampling) muss man ja nicht hier schreiben, dazu kann sich dann jeder selbst belesen. Dass AA nicht nur Kanten glättet ist mir bewusst, dort fällt es aber am stärksten auf.

Ich hoffe mein vorheriger Kommentar war treffender und entspricht Deinen Ansprüchen. :D
Klar kann man das machen aber nun passiert im ungünstigen Fall genau das was ich vorher schon geschrieben hatte: Overfitting.
Wenn du nur wenige Spiele extra trainierst erhältst du einen Bias in deiner Datenbasis. Wenn es blöd läuft beginnt deine KI eben genau diese Spiele besonders gut darzustellen, kann aber andere Spiele nicht mehr in der Qualität darstellen. Deine KI beherscht dann plötzlich nur noch das was deine Datenbasis gelehrt hat und kann keine allgemeinen Schlüsse ziehen. Das kann so weit gehen, dass du nur noch das Trainingsmaterial vorhersagen kannst.
Wenn du aber wie DLSS 2.0 einen generellen Ansatz verwendest der alles abdecken soll wäre ein solches vorgehen nach meiner Erwartung suboptimal.
Was man in deiner Quelle liest ist, dass ein Training für jedes Spiel mit nicht Spielrelevanten Daten stattfindet. Ich würde mal vermuten genau deswegen. Das wird aber ein richtiger KI Profi vermutlich besser bewerten können.
Edit: Hierzu noch eine Ergänzung. Wie genau DLSS ausgeliefert wird wissen wir ja nicht, ich könnte mir vorstellen dass es kein Problem ist für "NV sponsored" Titel, die spezielles DLSS Training erhalten haben, einen separaten Algorithmus per Treiber auszuliefern. So groß kann der ja nicht sein und man sieht immer wieder in Treiber Updates "Support für Spiel XYZ". Der Treiber erkennt das gestartete Spiel und startet den korrekten Algorithmus. Ob das so funktioniert können wir leider nicht nachprüfen.
 

Schinken

Software-Overclocker(in)
Dann zeig doch mal, 5 Minuten Aufwand, ansonsten hat das wieder so ein Geschmäckle...
Genau, 5 Minuten Aufwand. Zumindest für die 1080. Dass ich die anderen Karten leider nicht besitze hast du schon mitbekommen?

Außerdem ist's mir relativ schnurz ob ihr mir glaubt. Ich tausche hier Informationen aus und will selbst Neues lernen. Ich führ sicher keine Markenkriege.
Oft sitzt das Problem nicht im Rechner, sondern davor. :ugly:
Kann deine Aussage nicht bestätigen, zumindest nicht mit meinem UWQHD Monitor.

Das Spiel ist aber für den CPU-Limit bekannt und wenn hier zu wenig FPS rauskommen, wird es eher am Prozessor bzw. System selbst liegen. Zumindest habe ich mit meinem 9900K und meiner 3080 Grafikkarte keine Probleme und den VRam bekomme ich auch nicht voll.

Settings im Spiel sind schon hart auf Anschlag und können nicht mehr höher gesetzt werden.
(...)
Genau und wenn mit demselben Prozessor aber einer anderen Grafikkarte die FPS steigen spricht das ganz klar für ein CPU Limit... Aber mir den DAU vor die Füße werfen. Hast du meinen Post gelesen? 1-5 fps bei vollen VRAM, wenn nicht ca. 30 im CPU Limit (leicht rauszukriegen, geh ich die Auflösungen bis 720p runter bleiben es 30).
Übrigens in FHD, wie ich bereits schrieb. Und mit Mods, wie ich bereits schrieb. Zudem spreche ich hier von einer Stadt mit 100k+ Einwohnern bzw. sogar nur explizit von meinem Savegame (du errätst es sicher, ich schrieb auch das bereits).

Natürlich kannst du das nicht nachvollziehen, dafür müsste ich dir wohl meine Mod-Liste und das Savegame schicken.

Und falls ihr meint "das zählt nicht mit Mods" hab ich nur eine Frage?
Zählen wofür? Für den kindischen Streit ob 10 GB für jeden reichen oder nicht?
Für mich reichen sie nicht. Ich spiele mit Mods. Wer will mir widersprechen?
Der Fehler ist daraus abzuleiten ich würde in dieser Diskussion eine Seite wählen. Für mich kennen Diskussionen keine Seiten, nur Argumente die jeder anders gewichten kann.
Klar habe ich nicht dauernd VRAM Probleme, meistens ist der gähnend Lea. Aber ich bin eben im (für mich) normalen spielen auch schon stark an dessen grenzen gestossen. Deswegen behaupte ich doch nicht, das sei übertragbar auf die Mehrheit der Spieler.
Ich meine, warum hören die Meisten "10GB reichen euch allen nicht" wenn ich sage "10 GB reichen mir nicht"?


Edit: Und wenn mir jemand nicht glaubt (was für ein Kindergarten) kann man sich entweder die Mühe machen meine Posts sporadisch durchzugehen und meine Glaubwürdigkeit selbst zu bewerten oder mich schlicht ignorieren.
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Genau, 5 Minuten Aufwand. Zumindest für die 1080. Dass ich die anderen Karten leider nicht besitze hast du schon mitbekommen?
Das würde mir schon reichen um Deinen Aussagen glauben zu schenken. Zeit zu tippen für den riesen Absatz hast Du, aber nicht für einen fixen Screenshot mit VRAM Auslastung im Spiel auf Deiner 1080? Das bekräftigt meine Zweifel... Aber ist Dir ja egal, mir auch, "pics or it didn't happen".
 

Schinken

Software-Overclocker(in)
Klar hab ich die Zeit, ich muss mich nur nicht beweisen. Kennst du noch von früher die Typen die immer "Hemmung" gerufen haben um einen zu provozieren? Hat mich schon damals nicht gejuckt :).

Ist doch auch sinnlos. Warum solltest du mir denn dann die Auslastung auf den anderen Karten glauben?
"pics or it didn't happen" - entweder bist du da konsequent oder, naja, eben nicht.
 

raPid-81

Freizeitschrauber(in)
Klar hab ich die Zeit, ich muss mich nur nicht beweisen. Kennst du noch von früher die Typen die immer "Hemmung" gerufen haben um einen zu provozieren? Hat mich schon damals nicht gejuckt :).

Ist doch auch sinnlos. Warum solltest du mir denn dann die Auslastung auf den anderen Karten glauben?
"pics or it didn't happen" - entweder bist du da konsequent oder, naja, eben nicht.
Na dann, ich glaube da eher den Screenshots von @-THOR-. Da sind noch fast 5 GB frei.

Mit HD Texture und diversen anderen Mods bekommt man aber natürlich jeden VRAM voll, das ist dann halt persönliche Entscheidung.
 

Olstyle

Moderator
Teammitglied
Edit: Hierzu noch eine Ergänzung. Wie genau DLSS ausgeliefert wird wissen wir ja nicht, ich könnte mir vorstellen dass es kein Problem ist für "NV sponsored" Titel, die spezielles DLSS Training erhalten haben, einen separaten Algorithmus per Treiber auszuliefern. So groß kann der ja nicht sein und man sieht immer wieder in Treiber Updates "Support für Spiel XYZ". Der Treiber erkennt das gestartete Spiel und startet den korrekten Algorithmus. Ob das so funktioniert können wir leider nicht nachprüfen.
Ich gehe von einer festen Netz-Topologie und vielleicht sogar festen Gewichten für die ersten Layer, aber dann doch angepassten Gewichten für sie hinteren Layer aus.
Ansonsten würde das Netz (zumindest nach meinem Verständnis) ja Grafikstil x mir Grafikstil y auffüllen. Insbesondere bei Spielen welche nicht zwingend "realistisch" als Grafikziel haben dürfte das Ergebnis sonst sehr krumm werden.
 

Bl4ckR4v3n

Freizeitschrauber(in)
@Bl4ckR4v3n : Ja, ich habe einige Dinge stark vereinfacht ausgedrückt, mea culpa. Komplette Abhandlungen über Anti-Aliasing, neuronale Netze und DLSS (was ja für deep-learning-super-sampling steht, also auch nur eine Form von super-sampling) muss man ja nicht hier schreiben, dazu kann sich dann jeder selbst belesen. Dass AA nicht nur Kanten glättet ist mir bewusst, dort fällt es aber am stärksten auf.

Ich hoffe mein vorheriger Kommentar war treffender und entspricht Deinen Ansprüchen. :D
Beim letzten kann ich nicht meckern ;)
Man muss halt leider bei sowas aufpassen. Gibt gewisse User die gerne verzerrende Darstellungen lieben.
Edit: Hierzu noch eine Ergänzung. Wie genau DLSS ausgeliefert wird wissen wir ja nicht, ich könnte mir vorstellen dass es kein Problem ist für "NV sponsored" Titel, die spezielles DLSS Training erhalten haben, einen separaten Algorithmus per Treiber auszuliefern. So groß kann der ja nicht sein und man sieht immer wieder in Treiber Updates "Support für Spiel XYZ". Der Treiber erkennt das gestartete Spiel und startet den korrekten Algorithmus. Ob das so funktioniert können wir leider nicht nachprüfen.
Richtig können wir nicht wissen und Nvidia wird einen Teufel machen es zu verraten.
Und natürlich könnten die ihren Partnern ein spezielles Training anbieten. Nur frage ich mich wozu?
DLSS 1.0 ist ja unter anderem an diesem Konzept gescheitert. Ein extra Trainingsprozess für jedes Spiel war langwierig, teuer und hat nicht die gewünschten Ergebnisse gebracht. Man hat ja daraus lehren gezogen und kommunziert dass nur noch ein universelles Modell Verwendung findet.

-------------

@Schinken was für mods sind in Verwendung?
Wer grafische Mods verwendet der ist mit mehr VRAM fast immer besser aufgehoben. Da geht es meistens um Bling Bling und nicht um effizienz.
Auch in Skyrim kann man den Bedarf explodieren lassen. Verbraucht Vanilla meine ich 2gb und mein gemoddetes Game 8gb und da bin ich noch nicht mal am Ende angelangt.
 

Schinken

Software-Overclocker(in)
Mit HD Texture und diversen anderen Mods bekommt man aber natürlich jeden VRAM voll, das ist dann halt persönliche Entscheidung.
Natürlich ist es das, ich erzähl doch die ganze Zeit, dass das meine persönlichen Settings sind, die nicht übertragbar sind.
Beim letzten kann ich nicht meckern ;)
Man muss halt leider bei sowas aufpassen. Gibt gewisse User die gerne verzerrende Darstellungen lieben.

Richtig können wir nicht wissen und Nvidia wird einen Teufel machen es zu verraten.
Und natürlich könnten die ihren Partnern ein spezielles Training anbieten. Nur frage ich mich wozu?
DLSS 1.0 ist ja unter anderem an diesem Konzept gescheitert. Ein extra Trainingsprozess für jedes Spiel war langwierig, teuer und hat nicht die gewünschten Ergebnisse gebracht. Man hat ja daraus lehren gezogen und kommunziert dass nur noch ein universelles Modell Verwendung findet.

-------------

@Schinken was für mods sind in Verwendung?
Wer grafische Mods verwendet der ist mit mehr VRAM fast immer besser aufgehoben. Da geht es meistens um Bling Bling und nicht um effizienz.
Auch in Skyrim kann man den Bedarf explodieren lassen. Verbraucht Vanilla meine ich 2gb und mein gemoddetes Game 8gb und da bin ich noch nicht mal am Ende angelangt.
Hunderte. UI Verbesserungen, Stile, Assets ohne Ende, auch Texturen und sogar ne extra AA Mod. Fragst du nach den Namen muss ich passen, da ich das Savegame seit einiger Zeit nicht mehr spielen kann hab ichs lange nicht angefasst. Ich spiel eben was anderes solange mein Speicher nicht reicht.

Aber was willst du mir sagen? Mit Mods verbraucht man mehr Speicher? You dont say. Das war es was ich erzählen wollte xD.
Nein ernsthaft, das ist doch genau mein Punkt. Viele meiner gemoddeten Spiele sprengen gerne mal den Speicher. Obwohl ich es nicht drauf anlege, ich installiere einfach was ich will.
Auch wenn Mods schlecht optimiert sind, das wird sich ja nicht ändern.
Nur spiele ich nunmal genauso und wenn man mich fragt, können sie also gern 20 GB auf jede Karte schnallen.
Was nicht heisst, dass ich glaube jeder bräuchte das.
 

deady1000

Volt-Modder(in)
12 GiByte? - Lächerlich, einfach nur lächerlich... :schief:
Nö.

Schnelle VRAM-Bandbreite, wie bei der RTX3090, aber dafür nur die Hälfte AN Speicher. Deutliches Upgrade zur RTX3080 allemal. Irgendwo muss man ja auch die Daseinsberechtigung der RTX3090 behalten Hätte man der RTX3080Ti zb 16GB spendiert, dann wäre die RTX3090 quasi gestorben.

Die RTX3080Ti wird übrigens die perfekte Mining-Grafikkarte werden. 30 Watt sparsamer als die RTX3090 und wohl genau so schnell, nur billiger.

Und sein wir mal ehrlich... Die RTX3080Ti wird sich verkaufen wie warme Semmeln. Komplett out of stock und Straßenpreis sowieso ca 2000€. Da brauchen wir uns keine Illusionen zu machen.

Gute Karte und praktisch nicht kaufbar.
Ich denke nicht das es eine "nicht zu umgehende" Sperre jemals geben wird. Dafür ist das Mining zu lukrativ. Es wird immer Mittel und Wege geben solche Sperren zu umgehen und das wird auch passieren.
Volle Zustimmung. Es geht um enorm viel Geld und darum ist auch alles möglich.
 

IICARUS

Kokü-Junkie (m/w)
COD nimmt sich, was da ist. Auf meiner 3090 belegt es über 20GB. Das ist auch genau der Punkt!
Belegt ≠ benötigt.
Das stimmt, habe ich auch schon mit BF5 gesehen, da hatte ich mal 8 GiB, 16 GiB und 32 GiB Arbeitsspeicher ausgetestet und je nachdem wie viel Arbeitsspeicher verbaut war, hat sich das Spiel auch mehr oder weniger gegönnt.
 

deady1000

Volt-Modder(in)
Joa, schau dir das mal an.
Zum Vergleich, das Game läuft auf einer RTX2080Ti bzw RTX3080 genau so gut. ^^
Das Spiel zieht sich halt alles in den Speicher was geht, ohne Rücksicht auf Verluste.

PS: Die FPS sind so niedrig, weil ich das VR-Headset nicht aufhatte.

DCS 2.7 VRAM and RAM usage.jpg
 

IICARUS

Kokü-Junkie (m/w)
Im Vergleich zu meiner vorherigen 2080 Super habe ich mit meinen Spielen mehr FPS.
In Overwatch habe ich etwa 100 FPS mehr. In COD konnte ich früher nicht alles hochstellen und kam nicht immer auf meine 120 FPS was mein Monitor haben müsste. Jetzt habe ich alles hoch gesetzt und komme gut auf 120 FPS und etwas mehr.

Also ein Leistungsplus kann ich jedenfalls mit meiner neuen 3080 im Vergleich zu meiner vorherigen 2080 Super verzeichnen. Wobei ich aber noch mit der 2080 Super gut ausgekommen wäre. Die ist leider defekt gegangen und befindet sich immer noch in der RMA.
 

Frank-Langweiler

Freizeitschrauber(in)
Resident Evil 8 wird dich eines besseren lehren. Alles unter 16 GB ist weder zukunftstauglich noch einer Karte mit solcher Rohleistung gerecht. Aber redet es weiter schön. AMD hat mit RDNA 2 fast alles richtig gemacht. Der Infinity Cache z.b lässt Borderlands 3 butterweich laufen. Selbst bei den heftigsten Effektgewittern in Mayhem 10. Was keiner Nvidiakarte (auch meine 3090 nicht) gelingt. Nur die Verfügbarkeit ist lächerlich aber die Ausnahmesituation kann es zum Teil rechtfertigen.
Mal abwarten, was ich von den Benchmarks lernen werde. Darf ich dich dann anschreiben und es dir erzählen?
Schöne Fakten, jeder sammelt sich seine Fakten, wie sie ihm passen. Wie schaut es bei den Minimum FPS und in WQHD aus? Genauso? Ich weiß es nicht!

Oder anders: nach den Balkenlängen erkenne ich kaum eine Korrelation zwischen 24 VS 10 GByte bei den RTX. Unwahrscheinlich, dass eine 3080ti mit nur 12 GB nahe der 3080 bleibt. Wartet es doch erstmal ab. Hier wird so schlau gemeiert, die Karte ist noch gar nicht gebencht worden. Wobei die 6900XT bei neuen Spielen tatsächlich gut abschneidet. Wegen selber UVP müsste dann aber doch die 3080ti eigentlich schneller sein, weil AMD eigentlich immer und in allem schlecht ist. Durch meine grüne Brille jedenfalls ist alles rote braun!
 
Zuletzt bearbeitet:

Frank-Langweiler

Freizeitschrauber(in)
Ich will AMDs Leistung nicht schmälern, aber im PCGH Vergleich trennen beide 6900XT und 3080 nur 0,5 bis 3 Prozent und daraus ergibt sich nicht, das der zusätzliche Speicher viel nützt, noch dazu bei fast 50% höherer UVP. Die TI könnte bei selber UVP trotz weniger Speicher schneller sein, auch bei UHD (habe ich in der neuesten Ausgabe der PCGH überprüft, bei Spielen, die ich momentan spiele führt die 3080 ggü. 6900XT).
Ich warte mal ab. Die Straßenpreise entscheiden, was lohnt. Aber die 3080TI jetzt schon schlecht zu reden ist idiotisch und zu propagieren 16 gb Gddr 6 seien automatisch viel besser als 12 gb gddr6x.... weiß nicht was das soll. Das können wir doch in der Zukunft besprechen, wenn Beweise vorliegen.
 
Oben Unten