Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

daraus hätte man auch eine 6000 Shader GPU machen können, die dann wenigstens richtig ordentlich Mehrleistung zur alten Generation gebracht hätte.

Wieviel Platz benötigen denn die RT Cores auf dem Die? Ich denke nicht besonders viel.
Der Löwenanteil geht für die breiteren und besserer programmierbaren Shader drauf, die erweiterten Caches, etwas auch für FP16 die Umstrukturierung der GPCs mit je 64 Shadern statt 128 ( hatte Volta auch schon) und die Steigerung der Shaderzahl.
Die Tensor Cores selbst würde ich auf etwa ~ 10% der Die Fläche schätzen.
Damit gewinnst du keinen Blumentopf mit mehr Shadern.
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Weiter musste ich leider beobachten, dass vorallem @ scully1234 und @Schaffe89 stark abgedriftet sind.

Das hat sich ja zu 50% erledigt, da einer erstmal eine kleine Pause macht. Bei der aufbrausenden Art war es nur ne Frage der Zeit bis es mal wieder passiert.

Ich finde die neue Technik grundsätzlich spannend, bewerten kann ich das aber erst, wenn die Tests online sind.
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Wieviel Platz benötigen denn die RT Cores auf dem Die? Ich denke nicht besonders viel.
Der Löwenanteil geht für die breiteren und besserer programmierbaren Shader drauf, die erweiterten Caches, etwas auch für FP16 die Umstrukturierung der GPCs mit je 64 Shadern statt 128 ( hatte Volta auch schon) und die Steigerung der Shaderzahl.
Die Tensor Cores selbst würde ich auf etwa ~ 10% der Die Fläche schätzen.
Damit gewinnst du keinen Blumentopf mit mehr Shadern.

Ein einzelner Tensor-Core belegt etwa die vierfache Fläche eines Shaders, würde also, je nach Turingmodell, schon ordentlich mehr Leistung bringen, solange man nicht an die Grenzen der Shaderskalierung stößt (die bei der Ti schon fast erreicht sein sollte). Irgendwo zwischen GV100 und TU102 scheint ein Punkt zu liegen, an dem zusätzliche Shader einfach keinen annehmbaren Vorteil mehr bieten. Als kleiner, reeller Vergleich, nicht um stupide Halter auf eine andere Linie zu führen, hatte AMD diesen mit GCN bei den 4096 von Fury/Vega erreicht.

Also für den 102 uninteressant, wären für den 104 und 106 mit 368 bzw 288 Tensor Cores x 4 mit Verzicht auf die für Spieler eigentlich vollkommen nutzlosen Dinger, einiges mehr an Leistung drin gewesen. Glücklicherweise hat nV dann doch noch eine gute, uns zuträgliche Verwendung dafür gefunden, auch wenn sie theoretisch mit jeder anderen GPU auch berechnet werden könnte und vermutlich bei geringeren Leistungseinbußen als so manch anderes AA hübscher aussieht.
Die RT-Cores bemängel ICH an sich nicht, dank oben erwähnter Grenze, brauchte man etwas Neues für eine neue Generation. Technisch wieder einmal genial umgesetzt, ist leider der Fortschritt der Fertigungstechnik hinter den Erwartungen zurück geblieben. 7nm wäre einfach besser gewesen und hätte ein etwas stärkeres RT ermöglicht, über das weniger geschimpft würde...
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Nein das war anderst gemeint mit den Serverfarmen.
Dieses Deeplearning gedönse das keiner versteht wird hier angesprochen.
Also die AI oder Künstlicher Inteligenz von der hier geredet wird, soll "begreifen" welche angehensart gerade in der eigentlichen scenerie am effectivsten ist und diese dann in der Hardware RTX von NV umsetzen.

Das ist das kein Gedönse, sondern reine Wissenschaft. Mathematik, Logarithmen und pure Logik.

Und ja, die AI im Netzwerk lernt mit der Zeit fälle zu unterscheiden. Je mehr Beispiele sie bekommt,d esto intelligenter wird sie für diese Aufgabe. Bei einem fertig trainierten neuralen DLSS-Netzwerk für Spiel X weiß und begreift es wie der Grafikstil am effektivsten angewendet werden soll und berechnet das über die Hardware in den RTX-Karten.

Jetzt zugegeben dies ist alles meine bisherige Interpretation.

Ich empfehle weniger interpretieren und mehr informieren! :D

Dass dies auf den Farmen vorgerechnet wurde war mir bis heute auch neu. Aber dann überlege ich mir auch gleich wieso konnte man das nicht einfach pauschal für alle Spiele machen und den aus zu führenden aktuellsten Code jeweils in den Treiber oder Spiel einspeisen??

Vorgerechnet ist nicht genau der richtige Begriff. In der Regel ist es keine vorgerenderte Szene, sondern die Logik und Methodik wie gerendert werden soll wird dem neuronalen Netzwerk beigebracht.

Der Grund warum man das nicht für allen Spiele machen kann ist, dass es jeweils starke Unterschiede gibt.

-Welcher Grafikstil wird benutzt?
-Welche Grafikengine wird verwendet?
-Welche Darstellungsqualität besitzt das Spiel bereits?
-Wie viel Leistung wird bereits benötigt?

Das sind nur ein paar Punkte, die mir spontan einfallen. DLSS ist nicht wie ein Post-Processing-Filter, sondern praktisch echtzeit Anti-Aliasing.

Für alte Spiele könnte man das zwar auch nachpflegen. Wird nur nicht passieren, weil die wenigsten Entwickler Spieler älter als 2 Jahre pflegen und supporten. Bei all den Klassikern und Langläufern wie PUBG, Fortnite, World of Warcraft usw. hat man allerdings eine wesentlich bessere Chance auf Support von DLSS.

Oder tut es das schon und die teure Hardwar ist garnicht so "klever"?

Ich glaube die Hardware ist vielleicht sogar kleverer als du. Immerhin tut sie was man ihr sagt und kann selbst entscheiden. :lol:

Ich habe nicht geheult!
Nie...
Aber echte Männer heulen ja nicht wie @King_Kolrabi richtiggestellt hat ;-D

Seltsam wie ihr "echten Männer" die ganze Zeit rumheult wie kleine Babies, jedoch das Gegenteil behaputet.

@King_Kolrabi
Im Prinzip hast du das schon. Du kannst dich nicht über Kapitalismus beschweren, dann jedoch sämtliche Martkregeln außer Kraft setzen. War vielleicht nicht einmal Absicht von dir.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Also für den 102 uninteressant, wären für den 104 und 106 mit 368 bzw 288 Tensor Cores x 4 mit Verzicht auf die für Spieler eigentlich vollkommen nutzlosen Dinger,

Mal schauen wie nutzlos das wirklich ist.
Ich bilde mir meine Meinung nach dem Launch und nicht davor, es ist schon erstaunlich wie stark die Ablehnung für neue zukunftsweisende Tech aus der gegnerischen Fraktion ist, wo man doch selbst so heiss auf Mesh Shading/PS war.
Nvidia bietet nun das alles wo AMD vermeintlich einen Vorsprung hatte, inkl RT Cores, also das komplette Paket.
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Mal schauen wie nutzlos das wirklich ist.
Ich bilde mir meine Meinung nach dem Launch und nicht davor, es ist schon erstaunlich wie stark die Ablehnung für neue zukunftsweisende Tech aus der gegnerischen Fraktion ist, wo man doch selbst so heiss auf Mesh Shading/PS war.
Nvidia bietet nun das alles wo AMD vermeintlich einen Vorsprung hatte, inkl RT Cores, also das komplette Paket.

Naja wenn die Test überhaupt was dazu sagen können. Es scheint ja kein Kandidat zum testen aktuell vorhanden zu sein.
Aufbau und Platzbedarf sieht man doch gut im PCGH Artikel. Die RayCores fressen schon einiges an Platz.
Screenshot (238).png
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Mal schauen wie nutzlos das wirklich ist.
Ich bilde mir meine Meinung nach dem Launch und nicht davor, es ist schon erstaunlich wie stark die Ablehnung für neue zukunftsweisende Tech aus der gegnerischen Fraktion ist, wo man doch selbst so heiss auf Mesh Shading/PS war.
Nvidia bietet nun das alles wo AMD vermeintlich einen Vorsprung hatte, inkl RT Cores, also das komplette Paket.

Vielleicht interpretierst du meine Aussage falsch oder ich jetzt deine... ^^
Das "uninteressant" bezog sich an der Stelle einzig auf mehr Shader, die auf der selben Fläche möglich wären. Bei schon 4608 moglichen Shadern auf dem TU 102 würde das Ersetzen der 544 Tensor-Cores durch die rund vierfache Anzahl Shader nicht viel Sinn machen. Rund 6800 sollten nicht merklich mehr Leistung bringen...

Noch etwas Offtopic: schön, dass hier zumindest ein paar der nVidia-Anhänger es NICHT nötig haben andere zu beleidigen(und dafür letztlich sogar gesperrt zu werden ^^) und mit echten Argumenten zu "streiten" anstatt mit den immer selben Kindereien, die sie selbst ständig den AMD-Fans vorwerfen.
 
Zuletzt bearbeitet:
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

@King_Kolrabi
Im Prinzip hast du das schon. Du kannst dich nicht über Kapitalismus beschweren, dann jedoch sämtliche Martkregeln außer Kraft setzen. War vielleicht nicht einmal Absicht von dir.

Meine diesbezügliche Bemerkung wurde gestern abend leider kommentarlos und mMn grundlos gelöscht.
Daher werde ich mich dazu nicht mehr äussern.
Schlechter Stil, PCGH!
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Danke für deine korrekte Argumentation.
Mantle lief offt absolute Grütze, vorallem bei Ihren Vorzeigekollegen Dice. Also nicht gleich schlimm wie Raytracing aber kacke im BF.

Nun Vulkan also GENAU das gleiche wie Mantle aber von NV jetzt akzeptiert läuft seit der ersten Implementation SUPER.
An was könnte das liegen???

Mantle war doch nur der Wegbereiter für Vulkan. Damit hat AMD gezeigt was möglich ist und danach wurde das von den OpenGL Entwicklern aufgegriffen und verbessert.
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Mantle war doch nur der Wegbereiter für Vulkan. Damit hat AMD gezeigt was möglich ist und danach wurde das von den OpenGL Entwicklern aufgegriffen und verbessert.

Das mag rückblickend so wirken. Die Wahrheit sieht jedoch anders aus.

AMD war arrogant genug zu glauben sie könnten mit einer halb entwickelten und proprietären Low-Level API Branchengrößen wie Sony, Microsoft und Nvidia ausstechen. Natürlich haben alle drei danach AMD den Vogel gezeigt. Bis auf die Haus- und Hofentwicklern inklusive ein paar Nerd-Studios der AMD-Partner hat sich niemand für Mantle interessiert.

Mantle war nie geplant vorschnell zu verschwinden und AMD hatte als einzige Möglichkeit nur der Khronoss Group den Code und die Logik zu spenden um überhaupt ein wenig Einfluss zu haben. Die hatten bereites seit längerem am Nachfolger von OpenGL gearbeitet. Mantle hat den Vorgang nur beschleunigt.

Bei Nvidia DLSS sieht es allerdings völlig anders aus!
Mehr Bildqualität bei wesentlich mehr verfügbarer Leistung ist ein Traum für jeden Entwickler. Das dürfte es eigentlich nicht geben. Daher rennen die Studios bei Nvidia zurzeit die Bude ein.
Jeder will ein Stück von der Technik. Alle Spiele haben ihre eigene Vision wie sie es umsetzen wollen. Kreativ sind da jetzt einige Möglichkeiten offen, die vorher technisch leider nicht möglich waren. Nicht jeder ist ein Code-Freak und der Rest will einfach nur Spiele "designen".

Meine diesbezügliche Bemerkung wurde gestern abend leider kommentarlos und mMn grundlos gelöscht.
Daher werde ich mich dazu nicht mehr äussern.
Schlechter Stil, PCGH!

OK, kann ich daher wohl nicht beurteilen.

Normalerweise löscht PCGH aber keine Posts, es sei denn sie sind über die Stränge geschlagen. Wenn sich alle Usher hier ein wenig beruhigen und den Ton anpassen, klappt das auch wieder mit der Diskussion hier im Forum. :nicken:
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Bin mal gespannt, was von der ganzen “Diskutiererei“ hier nach den Tests der Turing-Karten noch übrig bleibt;)

Gruß
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Nein das war anderst gemeint mit den Serverfarmen.
Dieses Deeplearning gedönse das keiner versteht wird hier angesprochen.
Also die AI oder Künstlicher Inteligenz von der hier geredet wird, soll "begreifen" welche angehensart gerade in der eigentlichen scenerie am effectivsten ist und diese dann in der Hardware RTX von NV umsetzen.

Jetzt zugegeben dies ist alles meine bisherige Interpretation.
Dass dies auf den Farmen vorgerechnet wurde war mir bis heute auch neu. Aber dann überlege ich mir auch gleich wieso konnte man das nicht einfach pauschal für alle Spiele machen und den aus zu führenden aktuellsten Code jeweils in den Treiber oder Spiel einspeisen??
Oder tut es das schon und die teure Hardwar ist garnicht so "klever"?

Bei NV überascht mich nichts mehr.
Deeplearning hört sich erstmal kompliziert an, ist es eigentlich garnicht.
Im Prinzip ist es nur ein System welches eine Entscheidung in Abhängigkeiten trifft. Ein Beispiel: Du willst heute Abend ins Kino gehen weisst aber nicht ob du wirklich gehst. Du machst deine Entscheidung Abhängig von 3 Fällen.

[A] Das Wetter draussen ist schlecht
Deine Freunde gehen auch hin
[C] Es gibt Popcorn

Jetzt gibts du den Fällen ein Gewicht (wie ein Punktesystem), für dich ist am wichtigsten [A] = 5 Punkte, dann = 3 Punkte und PopCorn spielt dir nicht so eine Rolle [C] = 2 Punkte.
Dann setzt du einen Wert der als "Richter" fungiert, sagen wir ">=5".
Resultat: Du gehst ins Kino wenn: Fall [A] zutrifft, Fall + [C] oder [A]++[C]

Was jetzt Deeplearning macht ist nix anderes, als das es das Punktesystem anpasst bis es immer präziser wird. Dies macht es anhand von Millionen von Daten die ausgwertet werden und abgeglichen werden.
 
Zuletzt bearbeitet:
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Das ist das kein Gedönse, sondern reine Wissenschaft. Mathematik, Logarithmen und pure Logik.

Und ja, die AI im Netzwerk lernt mit der Zeit fälle zu unterscheiden. Je mehr Beispiele sie bekommt,d esto intelligenter wird sie für diese Aufgabe. Bei einem fertig trainierten neuralen DLSS-Netzwerk für Spiel X weiß und begreift es wie der Grafikstil am effektivsten angewendet werden soll und berechnet das über die Hardware in den RTX-Karten.



Ich empfehle weniger interpretieren und mehr informieren! :D



Vorgerechnet ist nicht genau der richtige Begriff. In der Regel ist es keine vorgerenderte Szene, sondern die Logik und Methodik wie gerendert werden soll wird dem neuronalen Netzwerk beigebracht.

Der Grund warum man das nicht für allen Spiele machen kann ist, dass es jeweils starke Unterschiede gibt.

-Welcher Grafikstil wird benutzt?
-Welche Grafikengine wird verwendet?
-Welche Darstellungsqualität besitzt das Spiel bereits?
-Wie viel Leistung wird bereits benötigt?

Das sind nur ein paar Punkte, die mir spontan einfallen. DLSS ist nicht wie ein Post-Processing-Filter, sondern praktisch echtzeit Anti-Aliasing.

Für alte Spiele könnte man das zwar auch nachpflegen. Wird nur nicht passieren, weil die wenigsten Entwickler Spieler älter als 2 Jahre pflegen und supporten. Bei all den Klassikern und Langläufern wie PUBG, Fortnite, World of Warcraft usw. hat man allerdings eine wesentlich bessere Chance auf Support von DLSS.



Ich glaube die Hardware ist vielleicht sogar kleverer als du. Immerhin tut sie was man ihr sagt und kann selbst entscheiden. :lol:




Seltsam wie ihr "echten Männer" die ganze Zeit rumheult wie kleine Babies, jedoch das Gegenteil behaputet.

@King_Kolrabi
Im Prinzip hast du das schon. Du kannst dich nicht über Kapitalismus beschweren, dann jedoch sämtliche Martkregeln außer Kraft setzen. War vielleicht nicht einmal Absicht von dir.

Danke für deine Antwort.
Ausserd einigen respektlosen Zusatzkommentaren , hast du genau beschrieben was ich geschrieben habe basierend auf meine Annahme.
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

Bei [U schrieb:
Nvidia DLSS[/U] .....
OK, kann ich daher wohl nicht beurteilen.

Normalerweise löscht PCGH aber keine Posts, es sei denn sie sind über die Stränge geschlagen. Wenn sich alle Usher hier ein wenig beruhigen und den Ton anpassen, klappt das auch wieder mit der Diskussion hier im Forum. :nicken:

Echt witzig das von dir zu lesen ?

Ich bin da mal drüber geglitten als noch was stand.
Ist mir nichts löschenswertes aufgefallen, sorry. ?
 
AW: Nvidia DLSS: Unterstützung für neun weitere Spiele angekündigt

SCUM..

.. ist das nicht die DOS-Emulation, in der man die bereits (dutzende Male) absolvierten und teilweise noch
in meinem Besitz (noch Nutzungsberechtigt?) befindlichen Lucas Arts-Perlen/Klassiker spielen lässt?

Erinnert mich daran, ich muss "The Dig" zum hundersten Male endlich abschliessen.
Aber Synchronstimmen/OST verhindern das oft...

Ach, die nennt sich ja SCUMM.
 
Zurück