News AMD Radeon RX 8000: RDNA 4 endlich mit besserem RT - auch auf PS5 Pro?

teilweise ( https://www.4a-games.com.mt/4a-dna/in-depth-technical-dive-into-metro-exodus-pc-enhanced-edition )
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

vielleicht aber bislang ist überhaupt kein Spiel meines Wissens nach voll Pathtraced, nichtmal CP:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Eventuell Quake 2 RTX, müsste ich mal nachlesen, aber das funktioniert eben auch nur in "niedriger Qualität" (wenige Bounces etc) und wird am Ende dann natürlich brav von "KI" Nachbearbeitet. Ein reines Raytracing-Spiel schafft noch keine GPU.
Soll das dein "simpel" widerlegen?
Bei Diablo 4 hast du simple Effekte, bei ME:EE wohl kaum
 
Es lief auf einer 6900XTX quasi exakt wie auf einer 2080ti. Dadurch konnte man doch überhaupt erstmal sagen dass AMD exakt eine Generation hinter Nvidia lag beim raytracen.
 
Man darf halt auch nicht vergessen, dass es noch immer auf den Stil des Spiels und die Implementierung ankommt. PT in Minecraft sieht ähnlich aus dem PT in Teardown. Letzteres treibt das aber durch die vielen kleinen Strukturen auf die Spitze.
In CP sieht PT ohne Zweifel gut aus, aber längst nicht annähernd wie in Voxelgames, weil es schlicht eine andere Basis ist. So gibts in CP Beispiele wo man ein Balkongeländer aus Glas zerstört, sich aber Licht nicht anpasst. Schön zu sehen an selbigen, wenn die Scheibe schon teilweise gebrochen ist und noch immer so reflektiert als sei sie ganz, nur unterbrochen. Winkelveränderungen kommen nicht, oder nicht richtig zum tragen.
Also bei CP hilft PT dem Gesamteindruck weit, aber im Detail ist es genau wie beim rastern, der Entwickler gibt ein grundsätzliches Verhalten der Strahlen vor. Anzahl an Strahlen und bounces, die Entfernung genauerer Berechnung und an erster Stelle... durch die Materialien der Objekte und deren Verhalten. In CP fällt buntes Licht anders durch getöntes Glas, als man es erwarten würde. Reflektiert von hellem Beton fast so wie von Stahl usw. Also gut ist RT jetzt schon, nur kommen wir immer eher in den Zustand, dass wir es mit realen Bedingungen vergleichen, was wir uns beim rastern abgewöhnt hatten. Das lässt es schnell seltsam wirken. Zusammen mit dem hohen fps Verlust, ist anfängliche Ablehnung mMn durchaus zu verstehen.
Lustig ist dann aber der Umkehreffekt. Wenn man nach einer Weile mit PT plötzlich auf raster stellt, kommt es einem seltsam steril vor und unecht. Das hab ich schon beim integrierten benchmark bemerkt. Im Spiel ist es noch viel deutlicher.

Ich würde mich freuen wenn AMD es an der Zeit fände da richtig aufzuholen, denn langsam aber sicher gibts einfach genug Spiele die es nutzen und vor allem findet die UE5 viel Anklang und damit wird sich die Anzahl der Spiele schnell erhöhen. Nur, dass sie es in den nächsten zwei Gens schaffen gleichzuziehen, daran glaube ich persönlich nicht. Nvidia hat die Entwickler frühzeitig unterstützt und die optimieren entsprechend dahin. Ist ja verständlich, wenn 90% der RT fähigen Hardware von denen kommt. Zudem lässt Nvidia doch inzwischen auch eine KI ihre Schaltungen überprüfen (ich meine, dazu gabs sogar eine News) und die wird sich keine groben Patzer leisten durch die viel Angriffsfläche entstehen könnte.

Damit RT mit PT physikalisch so genau berechnet werden kann, wird allerdings mehr Leistung benötigt. Es kommt nicht nur darauf an, ob PT verwendet wird, sondern mit wie vielen Bounces.

Bei Minecraft kann man leicht herausfinden, dass dort immerhin eine Strahltiefe von 8 verwendet wird: einfach 2 Spiegel (jew. 2x2 Blöcke hellgraue Keramik) gegenüberstellen und sie spiegeln sich jeweils 8x ineinander, danach werden sie grau (oder wars schwarz?) und die Spiegelung hört auf. Bei CP wird das keine Strahtiefe von 8 sein - das würde vermutlich noch keine GPU in Echtzeit packen oder sehr schuften müssen.

Wenn ich aber im Renderprogramm nur 8 Bounces oder weniger nehme, sieht das schnell sehr unrealistisch aus. Für Innenräume z.B. nimmt man mindestens 16 Bounces. Dann kommt es auch noch darauf an, wie viele Lichtphotonen pro Bounce berechnet werden sollen.

Wenn man dann noch Glas hat, welches mit innerer Totalreflexion, Brechung und physikalisch korrekten Caustics berechnet werden soll, steigt der Leistungsbedarf schnell ins unermessliche.

Damit alles also genauso wie von dir gewünscht in Echtzeit berechnet werden kann, müssten die RT-Einheiten einer GPU nach momentanen Stand der Technik nicht nur wesentlich erhöht, sondern massiv schneller sein. Das treibt die Kosten in die Höhe. Es geht dann (wie auch schon vorher) wie viele Millionen, Millarden oder Billionen Iterationen die GPU pro Sekunde berchnen kann, um das gewünschte Bild/den gewünschten Frame fertig wie gewünscht darzustellen.
 
Na siehst wie entäuschend das ganze. villeicht kommen wir ja mit dem kommenden top Modell bei nvidia wieder ein Schritt in diese reichweite ja näher wer weiß.
Ist halt die Frage, ich find die aktuellen Ergebnisse nicht enttäuschend, eher ermutigend für die Zukunft.
Blöd ist halt, dass viel zu lange auf reines Rastern gesetzt wurde. Hätte man schon mit GCN Ende 2011 auf Raytracing gesetzt, also in einer Zeit wo die Rechenleistung noch alle paar Jahre verdoppelt würde, hätten wir jetzt die Diskussion gar nicht mehr.
Stattdessen würde Rastern in Mini-Schritten verbessert und jetzt ist der Unterschied teilweise kaum ersichtlich
 
Ursprünglich die 4090 mit voller Begeisterung geholt ENDLICH das ultimative Raytracing Erlebnis zu haben und darauf gehofft beim Dead Space Remake ein spektakulären Einsatz von Raytracing zu sehen...komplette Fehlanzeige. Ob mit oder ohne Raytracing sah alles gleich aus. Seitdem in unzähligen Games den Unterschied vergleichen und letztendlich dabei geblieben in den Games Raytracing immer abzustellen, da der Unterschied kaum bis gar nicht im Spielefluss auffällt bzw die Grafik sonderlich hervorhebt und dazu auch noch der heftige Anstieg des Stromverbrauchs...nein danke🚫😆
 
Ja das hätte mir auch so passiert wenn ich es so wie du gemacht hätte. Ich wusste schon vorher das ich keine rt games haben würde. Darum reagierte ich gleich zurück gezogen damit.
 
Damit RT mit PT physikalisch so genau berechnet werden kann, wird allerdings mehr Leistung benötigt. Es kommt nicht nur darauf an, ob PT verwendet wird, sondern mit wie vielen Bounces.

Bei Minecraft kann man leicht herausfinden, dass dort immerhin eine Strahltiefe von 8 verwendet wird: einfach 2 Spiegel (jew. 2x2 Blöcke hellgrau *glasierte Keramik) gegenüberstellen und sie spiegeln sich jeweils 8x ineinander, danach werden sie grau (oder wars schwarz?) und die Spiegelung hört auf. Bei CP wird das keine Strahtiefe von 8 sein - das würde vermutlich noch keine GPU in Echtzeit packen oder sehr schuften müssen.

Wenn ich aber im Renderprogramm nur 8 Bounces oder weniger nehme, sieht das schnell sehr unrealistisch aus. Für Innenräume z.B. nimmt man mindestens 16 Bounces. Dann kommt es auch noch darauf an, wie viele Lichtphotonen pro Bounce berechnet werden sollen.

Wenn man dann noch Glas hat, welches mit innerer Totalreflexion, Brechung und physikalisch korrekten Caustics berechnet werden soll, steigt der Leistungsbedarf schnell ins unermessliche.

Damit alles also genauso wie von dir gewünscht in Echtzeit berechnet werden kann, müssten die RT-Einheiten einer GPU nach momentanen Stand der Technik nicht nur wesentlich erhöht, sondern massiv schneller sein. Das treibt die Kosten in die Höhe. Es geht dann (wie auch schon vorher) wie viele Millionen, Millarden oder Billionen Iterationen die GPU pro Sekunde berchnen kann, um das gewünschte Bild/den gewünschten Frame fertig wie gewünscht darzustellen.
 
Damit RT mit PT physikalisch so genau berechnet werden kann, wird allerdings mehr Leistung benötigt. Es kommt nicht nur darauf an, ob PT verwendet wird, sondern mit wie vielen Bounces.

Bei Minecraft kann man leicht herausfinden, dass dort immerhin eine Strahltiefe von 8 verwendet wird: einfach 2 Spiegel (jew. 2x2 Blöcke hellgraue Keramik) gegenüberstellen und sie spiegeln sich jeweils 8x ineinander, danach werden sie grau (oder wars schwarz?) und die Spiegelung hört auf. Bei CP wird das keine Strahtiefe von 8 sein - das würde vermutlich noch keine GPU in Echtzeit packen oder sehr schuften müssen.

Wenn ich aber im Renderprogramm nur 8 Bounces oder weniger nehme, sieht das schnell sehr unrealistisch aus. Für Innenräume z.B. nimmt man mindestens 16 Bounces. Dann kommt es auch noch darauf an, wie viele Lichtphotonen pro Bounce berechnet werden sollen.

Wenn man dann noch Glas hat, welches mit innerer Totalreflexion, Brechung und physikalisch korrekten Caustics berechnet werden soll, steigt der Leistungsbedarf schnell ins unermessliche.

Damit alles also genauso wie von dir gewünscht in Echtzeit berechnet werden kann, müssten die RT-Einheiten einer GPU nach momentanen Stand der Technik nicht nur wesentlich erhöht, sondern massiv schneller sein. Das treibt die Kosten in die Höhe. Es geht dann (wie auch schon vorher) wie viele Millionen, Millarden oder Billionen Iterationen die GPU pro Sekunde berchnen kann, um das gewünschte Bild/den gewünschten Frame fertig wie gewünscht darzustellen.
Ich weiß. Das hab ich ja selbst schon vor längerem erklärt. Das ist aber halt der Grund, warum ich es bisher nicht als tolle Leistung, oder den großen Wurf empfinde. Gerade solche spezialisierten Recheneinheiten kosten nicht viel. Nvidia beispielsweise hätte die dreifache Menge verbauen können, aber die wollen halt auch gefüttert werden und wie brauchen mehr Chipfläche. Letzteres ist richtig teuer und ginge nur über mehr Chips auf einer Platine, oder allgemein mgpu gelöst werden. Deshalb fabs ich den Tod von CF/SLI so dramatisch.
Bei AMD ist die RT Leistung beispielsweise so begrenzt, weil die shader dafür herhalten müssen. Ein CF mit einer Karte die füttert und einer die ausschließlich RT berechnet hätte deutlich weniger Probleme als aktuell. Mgpu ist gestorben wegen Mikroruckeln und was haben wir aktuell und akzeptieren es einfach knapp über 30 P1 fps mit einer anderthalb tausend Euro Karte, inklusive upsampling und von da aus dann per FG den Anschein 50-60 fps zu sehen. Für mich reicht das aktuelle RT nicht um mich zu beeindrucken und die Hardware schonmal gar nicht. Der ganze Markt hat sich unnötig verteuert und mMn falsch entwickelt.

Kennst du das, wenn du in Filmen plötzlich CGI Effekte bemerkst und siehst dass sie anders aussehen? So wirkt er/PT aktuell auf mich. Als Immersionsbrecher. Allerdings nur in spielen, die uns eine "echte" Welt verkaufen wollen. In Spielen wie Minecraft und Teardown finde ich es toll, weil es nur darum geht einen Effekt zu verbessern und nicht den Anspruch hat, plötzlich alles echt wirken zu lassen.
 
Ich weiß. Das hab ich ja selbst schon vor längerem erklärt. Das ist aber halt der Grund, warum ich es bisher nicht als tolle Leistung, oder den großen Wurf empfinde. Gerade solche spezialisierten Recheneinheiten kosten nicht viel. Nvidia beispielsweise hätte die dreifache Menge verbauen können, aber die wollen halt auch gefüttert werden und wie brauchen mehr Chipfläche. Letzteres ist richtig teuer und ginge nur über mehr Chips auf einer Platine, oder allgemein mgpu gelöst werden. Deshalb fabs ich den Tod von CF/SLI so dramatisch.
Bei AMD ist die RT Leistung beispielsweise so begrenzt, weil die shader dafür herhalten müssen. Ein CF mit einer Karte die füttert und einer die ausschließlich RT berechnet hätte deutlich weniger Probleme als aktuell. Mgpu ist gestorben wegen Mikroruckeln und was haben wir aktuell und akzeptieren es einfach knapp über 30 P1 fps mit einer anderthalb tausend Euro Karte, inklusive upsampling und von da aus dann per FG den Anschein 50-60 fps zu sehen. Für mich reicht das aktuelle RT nicht um mich zu beeindrucken und die Hardware schonmal gar nicht. Der ganze Markt hat sich unnötig verteuert und mMn falsch entwickelt.

Kennst du das, wenn du in Filmen plötzlich CGI Effekte bemerkst und siehst dass sie anders aussehen? So wirkt er/PT aktuell auf mich. Als Immersionsbrecher. Allerdings nur in spielen, die uns eine "echte" Welt verkaufen wollen. In Spielen wie Minecraft und Teardown finde ich es toll, weil es nur darum geht einen Effekt zu verbessern und nicht den Anspruch hat, plötzlich alles echt wirken zu lassen.

Auch wenn ich Spiele wie CP 2077, Dying Light 2 u.ä. gerne mit RT spiele, stimme ich dir da voll und ganz zu.

Das bisher gezeigte von Black Myth Wukong hat mich z.B: mal so gar nicht überzeugt, jedoch aber Machbarkeitsstudien und Demos der UE 5, die rein rasterized erstellt wurden.

Bei Alan Wake 2 sieht man zwar einen Unterschied, aber 1. zu welchen Leistungskosten, 2. sieht das immer noch nicht wie aus dem Renderprogramm gerendert aus.

Echtzeit-RT steckt einfach noch in den Kinderschuhen. Aber das war ja damals mit 3D-Grafik genauso, wenn ich mich da an die ruckelige Verktorgrafik am Amiga oder dem SNES erinnere.

Schade nur, dass sich Hardware (Grafikkarten) so unverhältnismäßig verteuert hat.
 
Zurück