AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne
[...]
Ab wann denn nun?[...]
Naja, wenn es eine ordentliche Marktdurchdringung erreicht und von den Spieleentwicklern ohne größere Hindernisse in ihre Spiele eingebaut und von Usern ohne größere Einschränkungen verwendet werden kann. Aktuell ist es für alle drei Punkte noch etwas zu früh. Die Marktdurchdringung ist winzig (wenn man vom gesamten Gaming-Markt mit Konsolen und eventuell sogar Mobile ausgeht, brauchen wir gar nicht erst damit anfangen - auch wenn das den Kohl auch nicht mehr fett macht), Spieleentwickler werden wohl noch etwas brauchen, um flächendeckend DXR-Support in die Spiele einzubauen (die Implementierung wird sich für die meisten Entwickler aus wirtschaftlicher Sicht wohl nicht lohnen, auch im Hinblick dahingehend, dass man Zeit und Geld auch in Optimierungen stecken kann, die
allen Nutzern zur Verfügung stehen) und die meisten Nutzer entscheiden sich trotz vorhandener Hardware trotzdem dagegen, weil der Performance Tax gerade einfach zu groß ist.
Wie unzureichend die Technik trotz allem ist, merkt man vor allem, wenn man sich mal anschaut, was RTX alles
theoretisch kann und was es in Spielen
tatsächlich macht. Im Kern ist RTX nämlich ein Unbiased Raytracer, der theoretisch erst mal so gut wie alles kann: Spiegelungen, Lichtbrechungen, Schattenwurf, Ambient Occlusion, Globale Beleuchtung und das alles auch diffus. Wenn man ein wenig mit Unbiased Raytracern gearbeitet hat, dann weiß man, dass es ein riesen Problem ist, die noise wegzubekommen. Für ein grobes Bild reichen 10 Samples/Pixel. Bei 50 Samples/Pixel weiß man in der Regel schon sehr deutlich, was berechnet wird. Bei 100 Samples/Pixel sieht man auch die Feinheiten sehr deutlich, hat aber immer noch das berühmt-berüchtigte RT-Bildrauschen und erst bei 1000 Samples/Pixel ist das Bildrauschen größtenteils weg. Das war schon lange ein Problem und der KI-Denoiser kann das ziemlich vernünftig lösen. Nur braucht man halt trotzdem erst mal 50 Samples/Pixel, damit der KI-Denoiser überhaupt mal anständig erkennen kann, was denn berechnet wird. Das war der Anwendungsfall, den Nvidia vorgestern gezeigt hat.
Für Spiele nimmt man zur Zeit einen der verfügbaren Effekte (alles andere wäre rechentechnisch kompletter overkill, selbst für die 2080 Ti), lässt den 10 ms lang ein paar Strahlen schießen, kommt mit ach und krach auf 2 Samples/Pixel und reicht das Ergebnis weiter an den KI-Denoiser und sagt "Das ist alles, was ich in der Zeit hinbekomme. Rate beim Rest einfach mal drauf los, das wird schon in etwa passen."
Ich will das jetzt nicht runter spielen, der KI-Denoiser ist schlichtweg genial. Aber um wirklich "wasserdichte" Ergebnisse zu bekommen, sollte man vielleicht auf 20 Samples/Pixel kommen - also 10-Fache Rechenleistung der RT-Cores - und dann hat man immernoch erst
einen Effekt. Mit mehreren Häkchen an mehreren Effekten kommt man dann schnell nochmal bei Faktor 20-50 raus (die Zahl der Sekundärstrahlen explodiert gerne, wenn man viele Effekte berechnen lässt). Und vor diesem Berg stehen wir aktuell.
Für Pixar und Co. macht das erstmal keinen Unterschied. Wenn die die notwendige Strahlenanzahl dank dem KI-Denoiser um den Faktor 10 reduzieren können, ist das schon ein riesiger Unterschied für die.
[...]
keine Sorge, hab ich, die Vega 56 reicht um eine Demo ablaufen zu lassen. Mehr Informationen sind da nicht rauszuholen, das sag ich schon seit 3 Beiträgen in Folge. Einige würden eben gern mehr daraus ableiten, wird ja deutlich.
der Punkt von Khabarak war mir ein Video aufzuzwängen, das eine selbstlaufende Demo auf einer V56 zeigt, das ist ab Seite 2 nachvollziehbar.
Das Beeindruckende ist, dass es eine Vega 56 überhaupt schafft, die Demo flüssig darzustellen. Bei Spiegelungen auf Basis von rudimentärem RT auf GPUs sprechen wir in der Regel (ich rate jetzt bei der Szenenkomplexität mal ins Blaue) von Renderzeiten im ein- bis zweistelligen Sekundenbereich, nicht im zweistelligen
Millisekundenbereich. Der Ansatz von Crytek ist sicherlich nicht ohne Probleme und auch sicherlich nicht so universell einsetzbar wie RTX, aber als Proof-of-Concept, dass man hinsichtlich der benötigten Zeit überhaupt mal in die richtige Größenordnung vordringen kann, ist das absolut beeindruckend.
Nebenbei: kannst du wirklich nicht diskutieren, ohne andere zu beleidigen? Ist das echt das Niveau, auf dem du dich bewegst?
gRU?; cAPS