RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

keiner hier aus China, Süd-Korea, oder Russland?
Ich meinte natürlich neue Technik/GPUs(Firmen).
Nicht Personen.

Eine ganz neue GPU, mit neuer Herangehensweise, neuen Techniken und Innovationen fänd' ich sehr spannend, auch gerade aus Ländern mit Möglichkeiten wie China, Süd-Korea, Japan, oder auch Russland.

Halt nicht nur das Gleiche in rot/grün, oder blau.


edit: Halt tatsächliche, echte Konkurrenz. Nicht diese Pseudo-Silikon Valley Konkurrenz unter sich.


Big Friends:

BigFriends.jpg
 
Zuletzt bearbeitet:
Ich habe meine 5700xt in dem Preiswahn grad für 690 Euro verkauft und warte auf einen Drop bei AMD, um die 6900xt oder die 6800xt abzugreifen
(falls jmd etwas zu den Zeiten weiß, wäre das eine sehr willkommene Hilfe und danke vorab )

Jetzt muss ich mit einer alten Erstazkarte haushalten und gerade da macht sich die Speicherthematik stark bemerkbar.

Eine 7970 mit 3GB Speicher würde ohne Probleme reichen, um mein favorisiertes Game, Hunt Showdown (kann ich nur empfehlen, habe seit 10 Jahren keine Shooter mehr gezockt, aber das ist der Hammer) zu spielen.
Mit 2 GB oder weniger startet es zwar noch, aber durch das ewige Nachladen der Texturen ist man dann nurmehr Kannonenfutter.

Das heißt für mich und in diesem Fall, Speicher macht den Unterschied zwischen spielbar und unspielbar, bzw. unterschied zwischen nützlich und absolut unbrauchbar fürs Gaming.

Ja, ich müsste die Details runterschrauben, das wird von mir, auf Grund von Übersicht, allerdings immer gemacht, ob starke Karte oder schwache.

Grüße
 
DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. Der DLSS Algorithmus läuft auf den Tensor Cores, diese sind speziell für Matrixmultiplikationen gedacht. DLSS bringt übrigens nichts bei hohen FPS da die Matrixmultiplikationen relativ "lange" brauchen. Ich kenne nicht die genaue FPS Grenze, aber es gibt eine ab der DLSS automatisch deaktiviert wird.
Sprichst du hier gerade vom Training oder der Anwendung von DLSS?
Es wird also aus einem Anti-Aliased 16K Image interpoliert an welcher Stelle Pixel hinzugefügt werden. Deswegen ist das Ergebnis auch "besser" als 4K + Anti-Aliasing weil Pixel hinzugefügt werden. Anti-Aliasing glättet ja nur Kanten anhand eines simpleren Algorithmus.
Weißt du überhaupt was Aliasing ist und wie er zustande kommt? Denn so wie du es gerade beschreibst scheint dem nicht so. Treppchenbildung an Kanten sind nur eine Folge von Aliasing. Zusätzlich hast du in allen Bereichen Informationsverluste. (Unterabtastung)
Das folgende leite ich aus der Regelungstechnik/Signalanalyse ab sollte aber für Grafikausgabe ähnlich gültig sein. Wenn das falsch sein sollte bitte ich die Leute mit Ahnung das zu korrigieren!
Streng genommen dürfte nur Super Sampling Auflösungs-Aliasing effektiv beheben. Wenn man nach Shannon Theorem geht minimum 2x der Auflösung. Aus der Regelungstechnik wird aber eher 3-4x empfohlen wenn möglich.
Damit müsste sich auch DLSS messen denn das eine ist die "Wahrheit" (überspitzt) bei Auflösung x das andere ein intelligentes Upscaling was versucht Aliasing durch Prädiktion zu vermeiden. Das Problem ist aber das es eine Prädiktion bleibt und somit keine Garantie für Richtige Ergebnisse ist. Wenn dann im Vergleich zu SSAA plötzlich Details gibt die es vorher nicht gab, darf man sich durchaus fragen ob diese Korrekt sind.
Andere AA Verfahren versuchen das Problem der Unterabtastung möglichst Kostengünstig zu kaschieren bzw lokal zu lösen. Meines Wissens (Man darf mich auch gerne korrigieren) kann kein anderes AA Verfahren mit SSAA messen wenn es um Bildqualität geht.
Es kommt also aufs Spiel an und wie gut das KI-Training war. Beide Spiele sind von Ende 2019, mittlerweile dürfte die Rekonstruktion besser geworden sein.
Die haben doch mit DLSS 2.0 das einzel Training für Spiele abgeschafft und gegen ein allgemeingültiges Modell ersetzt oder nicht?
Ob eine Rekonstruktion besser wird lässt sich schwer vorhersagen. Modelle gelangen teilweise einfach an einen Punkt wo diese in ihrer Genauigkeit um einen Bestwert schwingen. (Meine Erfahrung)
Ich finde es aber unglaublich faszinierend wie gut die Modelle anscheinend arbeiten können und was man damit rausholt.


Der Vorteil von DLSS ist, dass er in der Lage ist ohne Performanceverluste bzw. sogar mit Performancegewinnen die Bildqualität auf einem hohen Niveau zu halten (Mal von möglichen Bildfehlern aufgrund falscher Prädiktion abgesehen)
Nachdem was ich von der Technik selbst gesehen habe gibt es kaum einen Grund bei Performanceproblemen dieses Feature nicht nutzen zu wollen. Aber die Technik ist bei weitem nicht perfekt.
 
Sprichst du hier gerade vom Training oder der Anwendung von DLSS?
Der Teil betrifft die lokale Anwendung, nicht das Training.
Weißt du überhaupt was Aliasing ist und wie er zustande kommt? Denn so wie du es gerade beschreibst scheint dem nicht so. Treppchenbildung an Kanten sind nur eine Folge von Aliasing. Zusätzlich hast du in allen Bereichen Informationsverluste. (Unterabtastung)
Das folgende leite ich aus der Regelungstechnik/Signalanalyse ab sollte aber für Grafikausgabe ähnlich gültig sein. Wenn das falsch sein sollte bitte ich die Leute mit Ahnung das zu korrigieren!
Streng genommen dürfte nur Super Sampling Auflösungs-Aliasing effektiv beheben. Wenn man nach Shannon Theorem geht minimum 2x der Auflösung. Aus der Regelungstechnik wird aber eher 3-4x empfohlen wenn möglich.
Damit müsste sich auch DLSS messen denn das eine ist die "Wahrheit" (überspitzt) bei Auflösung x das andere ein intelligentes Upscaling was versucht Aliasing durch Prädiktion zu vermeiden. Das Problem ist aber das es eine Prädiktion bleibt und somit keine Garantie für Richtige Ergebnisse ist. Wenn dann im Vergleich zu SSAA plötzlich Details gibt die es vorher nicht gab, darf man sich durchaus fragen ob diese Korrekt sind.
Andere AA Verfahren versuchen das Problem der Unterabtastung möglichst Kostengünstig zu kaschieren bzw lokal zu lösen. Meines Wissens (Man darf mich auch gerne korrigieren) kann kein anderes AA Verfahren mit SSAA messen wenn es um Bildqualität geht.
Link
Q: How does DLSS work?

A: The DLSS team first extracts many aliased frames from the target game, and then for each one we generate a matching “perfect frame” using either super-sampling or accumulation rendering. These paired frames are fed to NVIDIA’s supercomputer. The supercomputer trains the DLSS model to recognize aliased inputs and generate high quality anti-aliased images that match the “perfect frame” as closely as possible. We then repeat the process, but this time we train the model to generate additional pixels rather than applying AA. This has the effect of increasing the resolution of the input. Combining both techniques enables the GPU to render the full monitor resolution at higher frame rates.


Die haben doch mit DLSS 2.0 das einzel Training für Spiele abgeschafft und gegen ein allgemeingültiges Modell ersetzt oder nicht?
Link

So for their second stab at AI upscaling, NVIDIA is taking a different tack. Instead of relying on individual, per-game neural networks, NVIDIA has built a single generic neural network that they are optimizing the hell out of. And to make up for the lack of information that comes from per-game networks, the company is making up for it by integrating real-time motion vector information from the game itself, a fundamental aspect of temporal anti-aliasing (TAA) and similar techniques. The net result is that DLSS 2.0 behaves a lot more like a temporal upscaling solution, which makes it dumber in some ways, but also smarter in others.

Ich habe irgendwo gelesen dass NV Spiele auch "extra" trainieren kann, finde den Link aber gerade nicht mehr. Dazu müssen sie ja eigentlich nur das neurale Netz mit "mehr" Beispielen von dem speziellen Spiel füttern.
 
Der Teil betrifft die lokale Anwendung, nicht das Training.

DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. Der DLSS Algorithmus läuft auf den Tensor Cores, diese sind speziell für Matrixmultiplikationen gedacht. DLSS bringt übrigens nichts bei hohen FPS da die Matrixmultiplikationen relativ "lange" brauchen. Ich kenne nicht die genaue FPS Grenze, aber es gibt eine ab der DLSS automatisch deaktiviert wird.
Du willst im Betrieb jedes gerenderte Bild mit dem perfekten Frame vergleichen? Du musst also mit jeder Berechnung das exakt richtige 16k Image bereitstellen? Woher sollen diese Images herkommen? Warum werden die nicht anstelle der Berechnung verwendet?
Weißt du wie neuronale Netze funktionieren?

Hast du überhaupt verstanden was ich geschrieben habe?
Ich Frage dich erneut was ist Aliasing? Was bewirkt das? Wie wirkt man dem gezielt entgegen? Was machen die verschiedenen Ansätze und was ggf. nicht?
Erläutere außerdem doch mal in deinen eigenen Worten warum DLSS welches scharfe Details hinzugefügt hat einem SSAA Bild überlegen ist, welches diese Details nur unscharf bzw. nicht dargestellt hat.
Vor allem interessiert mich die Erklärung, wie ein Verfahren welches ausreichend Abtastpunkte verwendet und Aliasing verhindern kann zu so falschen Ergebnissen kommt.

Link

Ich habe irgendwo gelesen dass NV Spiele auch "extra" trainieren kann, finde den Link aber gerade nicht mehr. Dazu müssen sie ja eigentlich nur das neurale Netz mit "mehr" Beispielen von dem speziellen Spiel füttern.
In dem Kontext wäre ein Link klasse. Ich würde erwarten dass ein extra Training die Gefahr von Overfitting mitbringt? Bei einem generellen Einsatz in vielen Spielen wäre das doch ein Problem?
 
Die RTX Karte ist nicht mit einem neuronalen Netz verbunden. Das wissen wir schon seit DLSS vorgestellt wurde. Sie führt nur Berechnungen auf Basis der Ergebnisse des von Nvidia geschulten neuronalen Netzwerkes durch. Diese Ergebnisse oder Handlungsanweisungen hält der Treiber vor.
Korrigiere mich bitte wenn ich das falsch verstanden habe.
 
Natürlich ist sie mit einem Netz "verbunden" (also sie kennt dessen Struktur, Gewichte etc., mit Borgs hat das ganze nichts zu tun). Aber sie traversiert es nur statt zu lernen. Letzteres macht NV in House.
 
Genau das habe ich gemeint. Direkt verbunden ist jedoch nichts, es funktioniert auch offline.
Es traversiert also danke für den Fachbegriff.
 
Kommt aufs Spiel an, Control war das erste DLSS 2.0 Spiel wenn ich mich richtig erinnere. In Deinem Video wird übrigens zu 90% 4K DLSS Performance (1080p to 2160p) vs 4K nativ verglichen. Erst ganz am Ende sieht man 4K Quality DLSS (1440p to 2160p) vs 4K nativ, und da ist der Unterschied deutlich geringer.

Diverse Fachpressen sehen 4K DLSS übrigens vor 4K nativ in Death Stranding:

Link





Es kommt also aufs Spiel an und wie gut das KI-Training war. Beide Spiele sind von Ende 2019, mittlerweile dürfte die Rekonstruktion besser geworden sein.

Edit: übrigens warst DU derjenige der "viele Leute empfinden DLSS besser als nativ" in den Raum geworfen hat, ich habe das nirgends behauptet. Nur Vermutungen angestellt warum die Leute so empfinden könnten.
Immer die selben Links macht es auch NICHT wirklich besser/glaubhafter !
Ist halt einfach DEINE Meinung, Mann (O-Ton vom DUDE). :-S

MfG Föhn.
 
Du willst im Betrieb jedes gerenderte Bild mit dem perfekten Frame vergleichen? Du musst also mit jeder Berechnung das exakt richtige 16k Image bereitstellen? Woher sollen diese Images herkommen? Warum werden die nicht anstelle der Berechnung verwendet?
Weißt du wie neuronale Netze funktionieren?
Ich habe nichts davon so gesagt, aber schön wie hier die Worte verdreht und Teile weggelassen werden um mich zu denunzieren. Ich habe stark vereinfacht ausgedrückt wie DLSS funktioniert. Ein neuronales Netz wird mit hochaufgelösten Bildern trainiert und die Ergebnisse (Algorithmen) per Treiber ausgeliefert. Auf den Tensor Cores wird dann dieser Algorithmus ausgeführt, das Frame in der down-scaled resolution wird eingegeben, der Algorithmus berechnet an welchen Stellen der Frame sich von den trainierten Werten unterscheidet, und ergänzt diese.

Auf die weiteren Fragen gehe ich nicht ein, diese sind einerseits ziemlich lächerlich (16K Images vorhalten per Treiber, ist klar...) und es ist auch vollkommen irrelevant ob ich weiss wie neuronale Netze funktionieren um zu verstehen wie DLSS funktioniert.

Hast du überhaupt verstanden was ich geschrieben habe?
Ich Frage dich erneut was ist Aliasing? Was bewirkt das? Wie wirkt man dem gezielt entgegen? Was machen die verschiedenen Ansätze und was ggf. nicht?
Erläutere außerdem doch mal in deinen eigenen Worten warum DLSS welches scharfe Details hinzugefügt hat einem SSAA Bild überlegen ist, welches diese Details nur unscharf bzw. nicht dargestellt hat.
Vor allem interessiert mich die Erklärung, wie ein Verfahren welches ausreichend Abtastpunkte verwendet und Aliasing verhindern kann zu so falschen Ergebnissen kommt.
Ich weiss was Aliasing und Moiré-Muster sind und werde keine Abhandlung darüber hier niederschreiben, das lässt sich ganz leicht googlen. Es gibt diverse Anti-Aliasing Techniken (MSAA, TSAA, SSAA, FXAA, SMAA, TXAA, TAA usw usf), alle haben Vor- und Nachteile. Auch das sollte man selbst googlen, das sprengt hier den Rahmen.

Ich habe im übrigen NIE behauptet dass DLSS die BESTE Lösung ist. Es ist aktuell aber mit Abstand die performanteste Lösung bei guter bis sehr guter Bildqualität. SSAA sieht definitiv besser aus, funktioniert aber genau umgekehrt zu DLSS: es berechnet den Frame in höherer Auflösung und downscaled das Ergebnis. Kostet dann halt massiv Leistung die man ja eigentlich für andere Effekte wie RT benötigt.

So, ich habe jetzt schon wieder angefangen hier einen Aufsatz zu tippen, aber dafür ist mir die Zeit echt zu schade, also per copy-paste (ich kann das eh nur in anderen Worten wiedergeben, so funktioniert es halt):

Unser neuronales Grafik-Framework, NGX, trainiert ein Deep Neural Network gegen Zehntausende hochauflösende, schöne Bilder, die offline in einem Supercomputer mit sehr niedrigen Frameraten und 64 Samples pro Pixel gerendert werden. Basierend auf dem Wissen aus unzähligen Trainingsstunden kann das Netzwerk dann Bilder mit niedrigerer Auflösung als Eingabe aufnehmen und hochauflösende, schöne Bilder erstellen.

DLSS 2.0 verfügt über zwei Haupteingaben, die in das KI-Netzwerk fließen:
  1. Niedrige Auflösung, Alias-Bilder, die von der Spiel-Engine gerendert werden.
  2. Niedrige Auflösung, Bewegungsvektoren aus denselben Bildern – auch von der Spiel-Engine generiert.

Bewegungsvektoren sagen uns, in welche Richtung sich Objekte in der Szene von Frame zu Frame bewegen. Diese Vektoren können wir auf die letzte hochauflösende Frame-Ausgabe des Netzwerks anwenden, um zu schätzen, wie der nächste Frame aussehen wird.

https://www.nvidia.com/content/dam/...ss-2-0/nvidia-dlss-2-0-architecture-850px.jpg
Oben: DLSS 2.0-Architektur
Ein spezieller Typ eines KI-Netzwerks, der konvolutionäre Autoencoder, verwendet den aktuellen Frame mit niedriger Auflösung und den letzten Frame mit hoher Auflösung, um pixelgenau zu bestimmen, wie ein aktueller Frame mit höherer Qualität generiert werden kann.
Beim Trainieren des KI-Netzwerks wird dann das Ausgabebild mit einem sehr hochwertigen, nativen um mit 16 K gerenderten Referenzbild verglichen. Der Unterschied wird wieder dem Netzwerk kommuniziert, sodass es mit den Ergebnissen weiter lernen und sich verbessern kann.


In dem Kontext wäre ein Link klasse. Ich würde erwarten dass ein extra Training die Gefahr von Overfitting mitbringt? Bei einem generellen Einsatz in vielen Spielen wäre das doch ein Problem?
Link

But DLSS also requires support to gain notoriety. To lessen the burden on its own team—which have already put "blood, sweat, and tears" into DLSS—Nvidia has removed the requirement to train an AI network on a per game basis. The system will still need to be trained, and support added for a game individually, but it can do so with non-game specific information.
Das habe ich jetzt auf die Schnelle gefunden. Warum sollte das neuronale Netz auch NICHT speziell für ein Spiel trainiert werden können? Es können ja von diesem Spiel viele Bilder eingespeist werden, somit wird die Trefferquote bei ähnlichen Frames erhöht.
 
Es gibt kein neuronales Netz mehr für ein Spiel, sondern nur noch eines für alle.
Ich habe nichts anderes behauptet. Das "eine" Netz lässt sich aber bestimmt auch gezielt trainieren. Und am Ende kommt sowieso nur ein "kleiner" Algorithmus dabei raus, da lässt sich bestimmt ein weiterer für speziell trainierte Spiele mit ausliefern per Treiber.
 
Dann suche dir mal jemanden mit ner 3090. da werden ev noch mehr GB VRAM "belegt". Wenn ich meine Fans von dem Nutzten von viel VRAM überzeugen will würde ich dem Treiber auch sagen:
Kopp in'n Nacken, hau voll was geht Alter...
Aber off Topic: deine Palit GTX 1080 Game Rock Premium ist ein richtig gutes Stück Hardware. War meine bisher leiseste Karte @stock, also ohne undervolting.

Im Afterburner gibt es die Möglichkeit "Memory usage \ process" anzuzeigen, das ist der tatsächlich genutzte VRAM. Alles andere zeigt nur "allocated VRAM" und ist somit nicht aussagekräftig.

Ich rede von der tatsächlichen Belegung, ausgelesen wie du es beschreibst im Afterburnr. Nicht vom reservierten Speicher.

Und Tatsache ist nunmal auch, dass dieses mein Savegame mit meinen 8 und den 10 der 3080 nicht spielbar ist (1-5fps).
Bei den 16 GB der 6800 dagegen flutscht es mit 30fps (dann im CPU Limit)
Ich bin sicher sowohl die Rohleistung der 1080 wie auch auf jeden Fall der 3080 und 6800 reichen für mehr als 30 FPS, limitierten tut nunmal wirklich der VRAM. Nun bin ich nicht der Durchschnittspieler, ich wollte nur aufzeigen warum ich, mit meinen Spielen und Vorlieben, keine Grafikkarte mit weniger als 16 GB kaufen werde.
Ich werde aber auch nicht 1000€ ausgeben also spiele ich etwas anderes und warte auf ne gebrauchte 6800 in 2025 xD.
Es waren 14GB VRam Verbrauch bei einer 12GB Karte? Habt ihr den Rest geschätzt?
6800, pardon.
 
Zurück