Raytracing-Effekte werden bald Standard sein, glaubt Entwickler

Meanwhile auf anderen Seiten die anscheinend bessere Infos und Artikel haben...

Ja, vor allem die tollen Benchmarkwerte der AMD Karten, nicht wahr?
Die 1660 Super bei den Min FPS vor der Radeon VII und fast dran, die 2060 Super vor der 5700XT und die 2070S 30 bis 40% schneller und das ganz ohne Verwendung der RT Cores.
Wirklich super Werbung für Raytracing ohne HW-Beschleunigung, 2070Super 54% vor der Radeon VII.
 
Klar wird sich die Technik um Raytraycing weiterentwickeln aber im Moment sind die GPUs noch nicht wirklich ausgereift.

Irrtum- Die Software hat im Augenblick den größten Nachholbedarf.

Um bei 4K Auflösung die 60FPS zu erreichen muss man in einer Sekunde knapp 450 Megapixel generieren.
Mit einer Leistung von 10 Gigarays/Sekunde könnten also theoretisch 20 Rays pro Pixel verschossen werden und man
würde mit einer 2080 TI die 60FPS Rate noch halten können.

20 Rays pro Pixel sind schon ne Menge.
Derzeit kämpfen die Spiele aus Effizienzgründen damit überhaupt ein Ray/Pixel ordentlich auszuwerten.
Die RT Einheiten hätten bereits genügend Luft.

Derzeit frisst aber 80% der Shader- Leistung der Raster- Part und für den RT- Part bleibt dann kaum mehr was übrig.
Es hakt also Softwareseitig am Zusammenspiel Rasterengine-/Raytracing.

LG
Zero
 
Irrtum- Die Software hat im Augenblick den größten Nachholbedarf.

Um bei 4K Auflösung die 60FPS zu erreichen muss man in einer Sekunde knapp 450 Megapixel generieren.
Mit einer Leistung von 10 Gigarays/Sekunde könnten also theoretisch 20 Rays pro Pixel verschossen werden und man
würde mit einer 2080 TI die 60FPS Rate noch halten können.

20 Rays pro Pixel sind schon ne Menge.
Derzeit kämpfen die Spiele aus Effizienzgründen damit überhaupt ein Ray/Pixel ordentlich auszuwerten.
Die RT Einheiten hätten bereits genügend Luft.

Derzeit frisst aber 80% der Shader- Leistung der Raster- Part und für den RT- Part bleibt dann kaum mehr was übrig.
Es hakt also Softwareseitig am Zusammenspiel Rasterengine-/Raytracing.

LG
Zero

Was mir noch nicht ganz klar ist, arbeiten die Shader und die RT Cores eigentlich parallel? Oder müssen die Shader erst einiges vorbereiten bevor die RT Cores dann auch Informationen über Farben etc abgreifen können?

Hab mich auch gefragt ob es funktionieren könnte das Ganze zu pipelinen. Heißt die RT Cores arbeiten mit Daten aus Frame i-1 parallel während die Shader den aktuellen Frame bearbeiten.
Für Schatten sollte das dann mit Maps funktionieren. Bei Spiegelungen hätte man wohl einen kleinen Fehler, der aber bei wenig Bewegung sehr klein sein sollte und bei schnellen Bewegungen wohl nicht so auffällt.

Aber ich spinn nur etwas rum. Kennt sich jemand hier genauer aus ob man die RT Cores und die Shader irgendwie tatsächlich parallel arbeiten lassen könnte bzw. was denn tatsächlich alles gemacht wird?
 
Was mir noch nicht ganz klar ist, arbeiten die Shader und die RT Cores eigentlich parallel? Oder müssen die Shader erst einiges vorbereiten bevor die RT Cores dann auch Informationen über Farben etc abgreifen können?
Letztenendes laufen die Berechnungen von RT und der "normalen" Rasterlast so weit als nötig synchron (es gibt leider immer Abhängigkeiten), viele Berechnungen lassen sich asynchron realisieren.
Eines der großen Stärken von Turing sind ja die schnelleren, wenn nicht parallelen Kontextwechsel Int und FP.
So kannst Du während die CPU/GPU damit beschäftigt sind die Beschleunigungsstruktur der Szene aufzubauen im Hintergrund schon parallel die übliche Rasterpipeline bedienen.

Wie viel hier inzwischen paralell läuft und durch die gleichzeitig wirkenden Gewerke an Geschwindigkeit gewonnen wird, kann man sehr schön hier sehen:
https://hexus.net/media/uploaded/2019/4/3667f48a-7ec0-4df4-a7be-5a6a0a47c682.jpg

Da wird gezeigt, wie ein Frame bei Pascal auf dem klassischen Weg behandelt würde und dann das, was Turing daraus machen kann. Das ist schon ein enormer Unterschied.

Heißt die RT Cores arbeiten mit Daten aus Frame i-1 parallel während die Shader den aktuellen Frame bearbeiten.
Für Schatten sollte das dann mit Maps funktionieren. Bei Spiegelungen hätte man wohl einen kleinen Fehler, der aber bei wenig Bewegung sehr klein sein sollte und bei schnellen Bewegungen wohl nicht so auffällt.
Ja-Derzeit arbeitet man bei RT viel mit kumulierten Daten aus vorhergehenden Frames und Vorhersagen, wie sich die Szene verhalten wird.
Darauf bauen sowohl die aktuell eingesetzten Denoiser- Lösungen auf (temporale akkumulation), als auch die Beschleunigungstricks für die aktuell implementierten RT- Lösungen auf.
Sieht man sehr schön an Control, wo das Bild der RT- berechneten Bereiche in diversen Szenen "nachzieht", wenn man schnelle hin- und her- Bewegungen macht.

Also grundsätzlich passiert schon relativ viel parallel. Ohne wäre an RT im Umfang einer DXR Implementation garnicht zu denken.

LG
Zero
 
Zuletzt bearbeitet:
Zumal ja auch andere Details immer besser werden.

Ich könnte mir halt auch gut vorstellen, dass RT der weitere Weg ist, weil alles andere kaum noch mit mehr Rechenleistung besser hinzubekommen ist. Was sind denn so aktuelle Themen? Physikbasierte Shader, Motion-Capturing und Photogrammetrie. Alles Dinge, wo der Fokus nicht auf der nötigen Rechenleistung zur Darstellung sondern auf dem Erstellen des Contents liegt. Und spätestens nach 8K ist doch die Auflösung als Leistungsverbrenner hinfällig. Ich werde vermutlich schon bei 4K die Reißleine ziehen.

Mir ist auch schon bewusst, dass es noch weitere Stellen gibt, an denen Leistung sinnvoll umgesetzt werden kann, aber es werden schon weniger.

20 Rays pro Pixel sind schon ne Menge.

Wobei man bedenken muss, dass jede Spiegelung wieder eine ähnliche Anzahl Rays braucht. Je diffuser, desto mehr eigentlich. Dann müssten viele glänzende Oberflächen verschwinden, weil Faken in einer reinen RT-Umgebung schwierig ist.
 
Früher, oder später... stimmt auffallend.

Allerdings sollte man sich nicht von ein paar AAA Spielen blenden lassen und glauben, dass plötzlich alle Spiele schnell auf RT umstellen werden.
Im Jahr erscheinen deutlich über 3000 Spiele.
Dieses Jahr sind wir bei etwas über 0,1% mit RT Suport.
Nächstes Jahr wird es vielleicht bei 1-2% liegen.
Und bis sich ein Studio traut, wirklich nur auf RT zu setzen, wird noch ne Menge Wasser den Rhein runter fließen.
Wie Schaffe mir in nem andren Thread passend auf meinen Kommentar antwortete:
Die "paar" AAA-Spiele sind aber die Spiele, die eine große Relevanz für den Markt haben. Das hat nichts mit "sich blenden lassen" zu tun.Es war immerhin Battlefield 5, mit dem ganz besonders für RT geworben wurde und nicht Low Budget-Titel wie "Wendys kleiner Ponyhof". Warum wohl? Das sind Zugpferde der Branche, mit denen sich für neue Technologien sehr gut werben lässt.

Vergiss nicht, dass (gefühlt) weit über die Hälfte der Games, die im Jahr raus kommen, sowieso in der Bedeutungslosigkeit versinken oder schlicht übler Software-Trash sind. Die haben keinerlei Relevanz. Außerdem gibt es Indie-Spiele, bei denen RT sowieso keinen Sinn machen würde, da sie lediglich handgezeichneten Style Art verwenden oder auf Pixel Look setzen.
 
Wobei man bedenken muss, dass jede Spiegelung wieder eine ähnliche Anzahl Rays braucht. Je diffuser, desto mehr eigentlich. Dann müssten viele glänzende Oberflächen verschwinden, weil Faken in einer reinen RT-Umgebung schwierig ist.
Mit den 20 Rays pro Pixel "jitterst" Du ja schon monte carlo mäßig über das Pixel, damit Du eben auch ein ordentliches Ergebnis in Sachen Diffusität bzw. rauher Oberfläche bekommst.
Der reine Spiegel ist ja schon mit einem Ray pro Pixel glücklich. Und dann kommt es halt auch noch auf die Anzahl von Bounces an.

Deswegen legt man bei RT ja auch einen Schwellwert fest, da ab einer gewissen Rauheit eine Spiegelberechnung nicht mehr groß zum Bildergebnis beiträgt bzw. grenzt die Strahlenausbreitung nach dem ersten Bounce schon stark ein.

Hier kann man schön sehen, wie sich die Rays pro Pixel auswirken - Da sind 16 schon recht ordentlich. Viel Denoisen müsste man da nicht mehr.
https://www.extremetech.com/wp-content/uploads/2018/10/RPP-Improved.jpg

Derzeit müssen die Spiele aufgrund des Ressourcenkampfes aber mit so einem Ausgangsmaterial Vorlieb nehmen:
https://i.ytimg.com/vi/rl-mn97X33k/maxresdefault.jpg

Da ist noch viel, viel Luft nach oben. Viel Verbesserungs- und Beschleunigungspotenzial. RT steckt einfach noch in den Kinderschuhen ist aber nichtsdestotrotz jetzt schon sehr beeindruckend und vor allem auch in akzeptablen Auflösungen und Frameraten spielbar.
Noch vor wenigen Jahren hatte niemand dran geglaubt, dass man das in den nächsten 10 jahren überhaupt sehen würde.

LG
Zero
 
Zuletzt bearbeitet:
Yep, das hoffe ich auch !

Aber BITTE auf Software Basis. RT für ALLE :-)

https://www.pcgameshardware.de/CryE...e-Demo-Neon-Noir-Raytracing-Techdemo-1336946/

MfG, Föhn.

Das ist aber leider wieder kein RT im herkömmlichen Sinne, sondern wieder nur Engine- Proprietäre Ansammlungen an Tricks gepaart mit Fakes.
Das ist ja genau das, wovon man weg will.

Analog dazu die Telekom, die ihr Vectoring anpreist, wo klar ist, dass fiber to the home the way to go ist....

LG
Zero
 
Warum nicht gleich auch auf der CPU? Die ganzen Spezialeinheiten und -chips sind doch Käse. ;)

Wenn AMD das Thema so halbwegs ernst nimmt, dann kleben die gach mal 'nen 64C/256T Chip für den AM4+ zusammen und lagern die RTRT-Berechnungen vollständig auf die CPU aus.
Das hätte den Vorteil, dass man sich weiterhin an der effizienten GraKa erfreuen kann die beim restlichen "Raster-Zeug" dann kaum Strom benötigt.
Bekanntlich ist es ja völlig egal wieviel Strom ein Prozessor verheizt, da dürfen es auch gerne mal ~400W sein während die GPU tunlichst unter ~250W bleiben sollte...
Klassische Win-Win Situation.
/s
 
  • Like
Reaktionen: acc
Ich habe doch nichts Gegenteiliges gesagt, oder doch? Wo sagte ich denn, dass das von heute auf morgen in allen Spielen zum Standard wird?
Ich schrieb von "damit in Berührung kommen" in "vielen Spielen". Wo ist da die Rede von einem Standard?

Doch hast du.... Du leidest echt unter Gedächtnissschwund... Deine Aussage vor gutem halben Jahr:

Es wird Zukünftig kein AAA Spiel mehr ohne RT Effekte geben und bis Ende des Jahres gibt es 20 (später auf 17) Korrigiert.

Nein kann dir den Post nicht zeigen da du ja alle alten unter Schaffe gelöscht hast...

Und das ist was ich dir immer ankreiden, du erfindet Zahlen und stellst als Fakten da...

Aber ist besser geworden... immerhin
 
Das ist aber leider wieder kein RT im herkömmlichen Sinne, sondern wieder nur Engine- Proprietäre Ansammlungen an Tricks gepaart mit Fakes.

Zur Verteidigung der Noir Demo, sind die Spiegelungen aber keine Fakes, die sind schon "origina"l raytraced, oder nicht?

Doch hast du.... Du leidest echt unter Gedächtnissschwund... Deine Aussage vor gutem halben Jahr

Hast du nicht noch ne Aussage von vor 2 Jahren im Köcher?:P
Ich habe nie gesagt, dass kein AAA Spiel zukünftig ohne RT Effekte mehr kommen wird, diese Diskussion hatten wir gefühlt schon 30 mal.
 
Zur Verteidigung der Noir Demo, sind die Spiegelungen aber keine Fakes, die sind schon "origina"l raytraced, oder nicht?



Hast du nicht noch ne Aussage von vor 2 Jahren im Köcher?:P
Ich habe nie gesagt, dass kein AAA Spiel zukünftig ohne RT Effekte mehr kommen wird, diese Diskussion hatten wir gefühlt schon 30 mal.

Doch hast du, wortwörtlich alle Zukunftigen AAA Spiele werden AAA haben und ist keine 2 Jahre her, sondern halbes Jahr oder so?

Jetzt behauptest sicher auch gleich das du NIE gesagt hast bis Ende des Jahres gibt es 20 RT Spiele...

Würd stand heute sagen, erlogene, gefakte Zahl ohne irgendeiner Grundlage.. Ich sehe nix davon
 
Die Konsolen haben kein hardware-RT sondern lediglich einen kleinen Cache - der hilft, ist aber ziemlich unwichtig im vergleich da so die Rechenleistung noch immer von den normalen Shadern erbracht werden muss.
Und was Shader-basiertes Raytracing an Leistung kostet ist seit vielen Jahren bekannt.

Raytracing wird sich durchsetzen - es kann die berechnungen ja auch deutlich effizienter machen.
ABER das braucht Zeit. Nicht weil die Technologie und Hardware noch nicht da ist sondern weil die alte Hardware noch lange da sein wird. Bei AAA und technisch-orientierten Titeln wird es wohl in 2-3 Jahren verwendet werden, aber die breite Masse wird wohl eher so 5 Jahre benötigen. Erst wenn der großteil der System hardware-Support haben werden Hersteller es als vorraussetzung angeben und erst damit kann man dann die Vorteile richtig nutzen. Denn so lange es auch auf anderer Hardware laufen muss bedeutet das das das Ganze Engine und Shader-Design auf einem Nicht-RT Ansatz aufbauen müssen und RT dann drüber gestülpt wird - mehr Aufwand, weniger effizient.


Die Hardwareleistung ist schon da, die Treiber müssen noch etwas verbessert werden (es gibt noch ein paar unschöne Limitierungen) aber für Effekte in 4K90FPS reicht es schon aus - wenn entsprechend Designed.
Kann man ja auch an AVX2 sehen - gibt es seit so vielen Jahren aber bisher wird es nur von sehr sehr wenigen Spielen genutzt und noch weniger vorausgesetzt obwohl es gewaltige Leistungssteigerungen bringen kann.



In wie fern "besser"? Dort wird reinem von Software-RT gesprochen - Leistung im besten Fall miserabel.


Um bei 4K Auflösung die 60FPS zu erreichen muss man in einer Sekunde knapp 450 Megapixel generieren.
Mit einer Leistung von 10 Gigarays/Sekunde könnten also theoretisch 20 Rays pro Pixel verschossen werden und man
würde mit einer 2080 TI die 60FPS Rate noch halten können.
jein - so einfach ists dann auch wieder nicht.
Die Giga-Ray angabe bezieht sich auf den idealfall - im Normalfall wird man davon nur einen bruchteil zur verfügung haben - derzeit ist dieser, teils wegen treibern, großteil wegen den Engines selbst - absurd klein.
Und mit 1 Strahl kann man nur Spiegelungen Berechnen wenn das ganze schon sehr ausgeklügelt funktioniert, die "Standard"-Variante benötigt 2 Strahlen. Dazu kommt noch - während die RT-Cores zwar unabhängig laufen können haben sie auch einen entsprechenden Stromverbrauch (Die RT-Cores allein können anscheinend das Powerbudget fast vollständig aufbrauchen).
Realistisch sind dann eher ~20-30% der maximal-Leistung. Reicht noch immer für gute Spiegelungen in 4K aus.
frühes starten der Rays und die RT-Cores nicht mit Vollast laufen lassen (höhere effizienz) und man kann schon sehr viel rausholen. Gibt da ein paar nette kleine Techdemos mit GlobalIllumination und deferred shading. Damit kann man die Strahlenberechung über einen sehr langen zeitraum ausbreiten weil das Ergebnis erst direkt vor dem Postprocessing benötigt wird.

Wenn dann auch noch die Tensor-Cores fürs Postprocessing verwendet würden ( TAA ist für Lichtberechnungen bei Raytracing super geeignet und kann mit den Tensor-Cores abgearbeitet werden) käme man nochmal auf deutlich bessere Leistung, nur müssten dann wieder 2 Shader entwickelt werden - einmal mit und einmal ohne - Mehraufwand den sich keiner antut.

Letztenendes laufen die Berechnungen von RT und der "normalen" Rasterlast so weit als nötig synchron (es gibt leider immer Abhängigkeiten), viele Berechnungen lassen sich asynchron realisieren.
Das ist so nicht richtig: Die RT-Cores können völlig unabhängig vom Rest laufen - deren Aufgabe ist nur die Berechnung der Schnittstellen. Was dann mit diesen Ergebnissen gemacht wird obliegt den Entwicklern. Bei BF5 zB werden die Strahlen 'relativ' spät berechnet und rufen dann wieder normalen Shader-Code auf.


Yep, das hoffe ich auch !

Aber BITTE auf Software Basis. RT für ALLE :-)

https://www.pcgameshardware.de/CryE...e-Demo-Neon-Noir-Raytracing-Techdemo-1336946/

MfG, Föhn.

Also - Ein rückschritt zu abartig schlechter Performanz und effizienz - alles Klar, du willst halt keinen Fortschritt.
Am besten nehmen wir auch HArdwarebeschleunigung für video-Decodierung wieder raus, genauso wie Textur-Filterung und Tesselation - braucht man ja alles nicht, lieber in Software rummurksen :ugly:
 
Was ich nicht so ganz verstehe - warum der Raytracing-Hype?

Der aktuell genutzte "Ersatz" für Raytracing macht seine Arbeit doch noch ganz ordentlich. Gerade wo es mindestens 2 Bereiche gibt, deren Einfluss (mMn) auf die Immersion sehr viel größer ist. Zumindest von speziellen "Licht und Schatten" Spielen einmal abgesehen, die die Beleuchtung mit Abstand in den Fokus stellen. Und zwar meine ich die Geometrie/Komplexität von Objekten, sowie deren Oberfläche (Texturen).

Wenn die Grafik an sich zb. "Real-Life" Status erreicht hat, dann ist das Erlebnis doch selbst mit guten aber "unechtem" Licht sehr viel intensiver, als mit eckigeren Objekten und niedriger aufgelösten Texturen (man erkennt sofort dass die Grafik "unecht" ist), aber dafür mit echter(er) Beleuchtung.

Minecraft sieht mit Raytracing natürlich besser aus, wirkt aber deswegen auch noch kein Stück realistischer, wenn die (bewusst einfache) Geometrie und die Texturen so bleiben wie sie sind.
 
Zurück