Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Boah, Leute, jetzt ist der Thread aber auf einem technischen Niveau angekommen, wo's echt heftig wird :ugly: Ich beschränk mich mal darauf: RT ist und bleibt spannend - wollen wir nicht einfach mal abwarten, was AMD zaubert? Die entwickeln auch schon mehrere Jahre an RT herum und haben ja (vor Ryzen 1) angekündigt, erst mit dem Abschluss der Ryzenentwicklung wieder richtig die GPU-Entwicklung zu fokussieren. Es wir aus meiner Perspektive die nächten zwei AMD-Generationen (also der nächsten zwei Large-Chips) richtig spannend, wie AMD und NV dann gleichzeitig aussehen.

Bin jedenfalls echt gespannt drauf. Und dann braucht man auch nicht mehr so viel herumraten, wer den längeren bei der Umsetzung hat :daumen:
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Ja ok. Hauptsache Leistungssteierung ala 40% :D. Wann ist release? Will neues Spielzeug haben.
40% werden schon drin sein. Auch deutlich mehr-in der Theorie ist fast eine Versoppelung bei ähnlicher Chipfläche möglich. Aber Nvidia wird versuchen von solchen riesigen Chipgrößen wegzukommen, sprich man wird versuchen die Chips kleiner zu machen. Nachdem AMD mit RDNA in 7nm zwar auf, aber nicht überholt hat, ist es auch gar nicht nötig einen großen Leistungssprung zu erzielen

Pauschal geraten würde ich sagen man bietet 30-40% mehr Rasterleistung und eine Verdoppelung der RT Leistung
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Hallo zusammen,
bin echt gespannt, was 2020 auf den Markt kommt. wollte eigentlich eine 2080 ti holen, aber werde wohl warten.
Viele Grüße,
Schnitzel
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Wann sollen die ersten Ampere-High-End Gaming-Karten erscheinen, gibts da eine "Schätzung"?

"erstes Halbjahr 2020" ist ein schon lange stabiles Gerücht und Nvidia hat (mit Ausnahme von Titan und Titan X) seit Kepler-Zeiten keine High-End-Serien mehr im 1. Quartal gelauncht. Also könnte es auch nächstes Jahr wieder auf Mai/Juni hinauslaufen.


Moment mal. Was ich in der RT-Spiegelung sehe, ist ein Bildausschnitt, der komplett geshadet ist, nicht nur eine ungeshadete Textur der abgetasteten Geometrie. Sonst wäre in der Spiegelung ja keinerlei Beleuchtungsinformation drin. Bei den Raytracern, welche ich verwende, ist das egal, weil einfach das gesamte Bild per Raytracing berechnet wird. Wenn man also den Intersect mit der Geometrie hat, wird rekursiv also einfach Schattierung und co. drüber gerechnet. Aber bei einer RT-Rasterisierung-Kombination stelle ich mir das schwierig vor, denn da müsste eigentlich erst die Berechnung der Beleuchtungsinformation passiert sein, die ist ja noch Raster-basiert.
gRU?; cAPS

Eine RTX-Reflexion zeigt idealerweise ein Objekt, das im regulären Raster-Durchlauf gar nicht berechnet wird. Sonst könnte man die gleiche Stelle nämlich auch mit billigen Screen-Space-Reflections darstellen. Geometrie außerhalb des Viewports sollte aber erst geshadet werden, nachdem festgestellt wird, dass sie in einer Reflektion sichtbar wird – sonst verschwindet viel Leistung. Dem Raytraycer ist die Reihenfolge aber egal. Der ermittelt, dass sichtbares Pixel XY die Farbe von Geometriepunkt ABC zeigt. Ob die Farbe von ABC dann aus einem bestehenden Puffer ausgelesen wird oder erst noch berechnet werden muss, ist dem Tracer egal – er ist mit seiner Arbeit fertig. Aktuell fehlt auch die Rechenleistung, um Lichtstreuung und indirekte Beleuchtung am Ende der Strahlenkette direkt mit zu berechnen, sodass abseits der schnell überprüfbaren Reflektivität gar keine Informationen zur getroffenen Fläche bekannt sein müssen, um das Ende eines Raytraycing-Pfades zu definieren.


Ich mag solche pauschalaussagen nicht.
Klar ist es im derzeitigen Status eher ein Feature, das nur einen Aublick auf die Zukunft gibt (wie hunderte Features davor. AA genauso wie Shader, Tesselation, TnL usw).
Aber ob das ganze jetzt viel Leistung frisst hängt hauptsächlich von der Implementierung ab.
Es gibt auch Spiele (World of Tanks?) da frisst es "nur" 30%.

WoT nutzt Raytraycing nur für die Schatten eines Objektes ausgehend von einer Lichtquelle. Die 30 Prozent Leistung gehen also für die Aufwertung von 1 bis 10 Prozent des Bildinhaltes drauf. Prinzipbedingt spielt die Art der Implementierung beim Ressourcenverbrauch eines Raytraycers kaum eine Rolle – der Code ist einerseits elegant simpel, bietet damit aber andererseits auch keine Optimisierungsmöglichkeiten. Rasterizer versuchen die Wirklichkeit auf vollkommen anderem Wege anzunähern und da kann man immer nach einer effizienteren Variante suchen, aber ein Rasterizer Raytraycer versucht die realen Prozesse nachzuvollziehen und dafür gibt es nur einen Weg.

Die einzige Möglichkeit bei RT Leistung zu "gewinnen" ist also, möglichst wenig RT einzusetzen. Dabei trotzdem eine annehmbare Qualität hinzubekommen ist aber nicht ganz einfach, wie vor allem Battlefield und Call of Duty gezeigt haben. Spart man weniger an der Qualität, hat man entweder den Ressourcenhunger von Redux oder ein 95-Prozent-Rasterizer-Bild wie in WoT.

Bin beim Culling nicht ganz sicher, ob das nicht in Zukunft ein anderes Verfahren benötigt. Immerhin werden beim Culling auch einige Objekte ausgespart, die aber fürs korrekte RT benötigt werden. Eventuell wird man in Zukunft auch durchs Raytracing die Levelgeometrie mitberechnen um zu sehen, welche Objekte der Spieler überhaupt sieht. Raytracing braucht ja grade bei Spiegelungen auch teilweise Objekte, die der Spieler gar nicht sieht und durch Culling ausgeblendet werden.... Allerdings bin ich da grad nicht am Laufenden, wie das beim Hybridverfahren genau funktionieren wird. Im Moment wirkt es, als müssten 2 Verfahren/Algorithmen angewandt werden. Das könnte in Zukunft nur noch einer werden (und Rechenzeit sparen).

Um die Schnittpunkte zwischen Ray und Objekten zu berechnen, muss die Geometrie bekannt sein. Raytraycing ersetzt nur die Rasterisierung und optional die Beleuchtung, aber alle anderen Teile der Pipeline bleiben erhalten. Wo Raytraycing für Spiegelungen außerhab des Screenspace genutzt wird, muss aber auch das Culling zurückgefahren werden, das stimmt. Aktuelle Spiele halten sich aber ohnehin bezüglich der Raytraycing-Reichweite zurück.
 
Zuletzt bearbeitet:
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Eine RTX-Reflexion zeigt idealerweise ein Objekt, das im regulären Raster-Durchlauf gar nicht berechnet wird. Sonst könnte man die gleiche Stelle nämlich auch mit billigen Screen-Space-Reflections darstellen.
Das ist dann auch nicht viel billiger. Ich habe cPT_cAPSLOCK Post anders verstanden und zwar bezieht er sich auf das "hybride Intersect" (also den Teilinhalt des Bildes der mit Raytracing berechnet wird) und wie diese Raytracing-Sphäre implementiert wird. Das Problem bei der Überschneidung (Raytracing-Rasterisierung) ist dann - die Anzahl der Zahlen die man noch mit hoher Genauigkeit auf einem Computer berechnen kann. Diese ist klar begrenzt. Dann versucht man diese Anzahl - auf eine vertretbare oder akzeptabel Anzahl zu reduzieren - ohne das es zu einer "katastrophalen Löschung" kommt oder sie inakzeptabel runden zu müssen. Die Zahlen sind dabei auch für das Texturmapping wichtig und im Fall der hybriden Berechnung für den Anteil der prozentualen Textuierung. Allein mit Raytracing könnte man das gesamte Bild nicht berechnen.

Ein ähnliches Verfahren kommt bei MW-Raytracing Prequel zur Anwendung - dort wurde ein eigens für die Engine entwickelter Ray world intersect algorithmus für Lichtpunktquellen implementiert (Pointlightshadows/Spotligthshadows), der sich auf ausgesuchte zusätzliche Lichtquellen anwenden lässt. Wie man sieht - beeinflusst das die Framerate nicht so gravierend, sie bleibt auf jeden Fall spielbar.

Probleme bereitet dabei die Kameraperspektive die dann dimensional nicht zur Ansichtsebene passen kann. Hier kann es helfen zu allen Schnittpunkten einem Mindestabstand einzuhalten oder diese zu verschieben. Bei Reflektionen muß gebenüber der einfachen Schattendarstellung die Lichtintensität und deren Ausbereitung berücksichtig werden - was höheren Rechenaufwand fordert. Bei konstanten Lichtmengen die in alle Richtungen gleichhoch abstrahlen - ist dies weniger aufwendig. Rechenungenauigkeit wird durch niedrige Abtastfaktoren gesteigert, was natürlich auf die Gesamtoptik wirkt.
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

WoT nutzt Raytraycing nur für die Schatten eines Objektes ausgehend von einer Lichtquelle. Die 30 Prozent Leistung gehen also für die Aufwertung von 1 bis 10 Prozent des Bildinhaltes drauf. Prinzipbedingt spielt die Art der Implementierung beim Ressourcenverbrauch eines Raytraycers kaum eine Rolle – der Code ist einerseits elegant simpel, bietet damit aber andererseits auch keine Optimisierungsmöglichkeiten. Rasterizer versuchen die Wirklichkeit auf vollkommen anderem Wege anzunähern und da kann man immer nach einer effizienteren Variante suchen, aber ein Rasterizer versucht die realen Prozesse nachzuvollziehen und dafür gibt es nur einen Weg.

Was ich fett markiert habe. soll "Raytracer" heißen. Sonst wird der Satz leicht unverständlich :)
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

"Optimisierung"...Optimierung
"nachzuvollziehen"...abzubilden

Ohne Rastergeometrie würde auch Raytracing nicht funktionieren. Letztlich geht es um Dreiecke aus denen Objekt-Quader gebildet werden, aus der Anzahl dieser Quader wird eine kleinere Anzahl gebildet (BVH) und anhand dieser gemeinsame Schnittmengen berechnet.

Die WoT Entwickler benutzen für BVH -Strukturen einen Embree-Algorithmus der die Schnittmengen auf der CPU berechnet, im Gegensatz zu RT Cores sollen sie die Berechnungszeit von 8ms auf 1-2ms pro Frame gesenkt haben können (eigene Aussage). Ihre Fahrzeuge sollen aus bis zu 50000 Dreiecken bestehen, das wäre mit NVidias RT Cores und dazugehöriger BVH wohl nicht machbar gewesen. Sie schießen dabei jedes Pixel mit einem Ray.
 
Zuletzt bearbeitet:
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

RT für Schatten, GI und Reflektionen, also das volle Programm, verbraucht zur Zeit ungefähr 40% Leistung (basierend auf Control) Ich halte eine nahezu verdoppelte RT Leistung für realistisch, die Einbuße wenn man künftig RT einschaltet, wird demnach ungefähr 25% betragen bei Ampere.

Wir dürfen aber nicht vergessen, dass das kommende DXR 1.1 auch viele Möglichkeiten zur Leistungssteigerung für beide, Ampere und Turing bieten könnte, das könnte die Leistungseinbußen nochmal spürbar verringern.
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Wir dürfen aber nicht vergessen, dass das kommende DXR 1.1 auch viele Möglichkeiten zur Leistungssteigerung für beide, Ampere und Turing bieten könnte, das könnte die Leistungseinbußen nochmal spürbar verringern.
Es gibt dort keine Leistungssteigerungen für dedizierte Hardware, weil DXR Tier 1.1 das nicht bietet. Es gibt mit Inline Raytracing erweiterte Zugriffe für Entwickler und damit Optimierungsmöglichkeiten wie DX12 sie auch vorsieht, weil die API und der Treiber bisher die Ray Queue und Instanzierungen verbergen. Es war Wunsch der Entwickler mehr Zugriff auf die Structuren zu erhalten, was Microsoft so umgesetzt hat.

Es ist nicht anzunehmen, dass nVidia über RTX Gameworks so einen offenen Zugriff auf deren Hardware zulässt.
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

Probleme bereitet dabei die Kameraperspektive die dann dimensional nicht zur Ansichtsebene passen kann. Hier kann es helfen zu allen Schnittpunkten einem Mindestabstand einzuhalten oder diese zu verschieben. Bei Reflektionen muß gebenüber der einfachen Schattendarstellung die Lichtintensität und deren Ausbereitung berücksichtig werden - was höheren Rechenaufwand fordert. Bei konstanten Lichtmengen die in alle Richtungen gleichhoch abstrahlen - ist dies weniger aufwendig. Rechenungenauigkeit wird durch niedrige Abtastfaktoren gesteigert, was natürlich auf die Gesamtoptik wirkt.
So ist es, Metro DLC! Also schon lange beantwortet!
 
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

RT für Schatten, GI und Reflektionen, also das volle Programm, verbraucht zur Zeit ungefähr 40% Leistung (basierend auf Control) Ich halte eine nahezu verdoppelte RT Leistung für realistisch, die Einbuße wenn man künftig RT einschaltet, wird demnach ungefähr 25% betragen bei Ampere.
Das setzt aber voraus, dass man die (noch) kompromissbehaftete RT- Qualität beibehält, die erstens nicht artefaktfrei bleibt (und das muss das Ziel sein) und zweitens aufgrund des hohen Grades der temporalen Aufrechnung, auch teils nicht zeitgenau/framegenau bzw. mit Nachziehen und Blur, die Szenerie auf den Bildschirm wirft.

Derzeit arbeitet man auf Kosten der Qualität eben doch mit allerlei Tricks. Aber auch diese werden ausgefeilter (siehe DLSS Integration von deliver us the moon), dessen temporale Verrechnung schon deutlich besser als die der Anfangstitel funktioniert, allerdings auch noch alles andere als frei von Artefakten ist.

Dennoch beeindruckend, wie gut die Rekonstruktionsalgorithmen/Denoiser dort inzwischen arbeiten, hat DLSS ja unter Anderem auch eher den Sinn, das Upscaling zu verbessern und die unter anderem daraus entstehenden Quantisierungfehler zu beseitigen (Stichwort dazu auch Ghosting/Alpha- Testing).

Wir dürfen aber nicht vergessen, dass das kommende DXR 1.1 auch viele Möglichkeiten zur Leistungssteigerung für beide, Ampere und Turing bieten könnte, das könnte die Leistungseinbußen nochmal spürbar verringern.
DXR 1.1 gibt, so wie ich das bis jetzt erfasst habe (habe selbst damit noch nicht rumgespielt), unter Anderem auf Softwareseite die Möglichkeit diverse Aufraufe aus vorherigen "Stall-Szenarien", die aber rein Softwarebedingt auftraten (einigen Programmieren zu hohes Abstraktionslevel bei Nutzung aufwändiger dynamischer Shader), doch noch für andere Aufgaben nutzbar zu machen, bzw. auch mehr Kontrolle über das Scheduling zu erhalten.

Es werden aber dadurch nicht "nähere Zugriffe auf die Hardware" möglich und verhält sich in Punkten so, wie es BraveNeo beschreibt.

Nach DXR 1.0 hat man die bisherigen Erfahrungen zusammengetragen und einige Wünsche in 1.1 umgesetzt, die letztenendes aber auch je nach Szenario in Geschwindigkeitssteigerungen münden könnten. Diverse Dinge aber auch manchmal nur in der Programmierung vereinfachen.

Alles hier zu finden:
DirectX Raytracing (DXR) Tier 1.1 | DirectX Developer Blog

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung


Das wäre schön, aber zu welchem Preis?
Auch über die 2080TI hätte sich hier schon keiner aufgeregt und das Thema Raytracing hätte nicht den negativen Beigeschmack des "nur für Auserwählte" und proprietär bekommen, was immer zu Spaltung und Spannungen führt, wenn sie 700-800€ gekostet hätte.

Damit hätte man sich aber so sehr bezüglich des Wilderns im Profi- Bereichs ins eigene Bein geschossen, dass man das ökonomisch wohl einfach nicht mehr abbilden konnte und einen für den User "schmerzhaften" und den Entwickler/Profi sehr erfreulichen Mittelweg finden musste.

LG
Zero
 
Zuletzt bearbeitet:
Zurück