Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

Mir kann Raytracing solange fern bleiben bis die Technik 60 FPS in 4K konstant schafft.

Oh und schon hab ich ein Problem, denn das Dauert noch mindestens 10 Jahre :ugly:

Naja in 10 Jahren will ich kein altes 4k in "ruckeligen" 60 FPS. Da will ich min. 8k in 144 FPS.
Und das wird aus meiner Sicht einer der größten Probleme für RT sein. Unsere Ansprüche wachsen separat weiter, das heißt die RT-Performance muss überdurchschnittlich stark steigen um unseren Ansprüchen gerecht zu werden.
Wenn man dann noch ein Blick auf VR wirft sollte die Leistung noch deutlicher steigen.
 
Ist ja schon bekannt das AMD was machen will - die Frage ist nur wann.
Die Entscheidung, dass Sie etwas machen werden, ist doch noch gar nicht getroffen!?

Die Artikel-Überschrift dieses PCGH-Artikels ist meiner Meinung nach auch irreführend, da mögliche Anstrengungen der RTG im Bereich von Raytracing an zukünftige Marktentwicklungen geknüpft werden, die aktuell niemand vorhersehen kann.
Wang hat rein gar nichts bestätigt!
 
Die Entscheidung, dass Sie etwas machen werden, ist doch noch gar nicht getroffen!?

Die Artikel-Überschrift dieses PCGH-Artikels ist meiner Meinung nach auch irreführend, da mögliche Anstrengungen der RTG im Bereich von Raytracing an zukünftige Marktentwicklung geknüpft werden, die aktuell niemand vorhersehen kann.
Wang hat rein gar nichts bestätigt!

Ich würde das auch an AMD´s stelle an die Wand fahren lassen. Hat Nvidia auch gerne gemacht mit den neuen API´s und vielen anderen Features.
 
Wäre es nicht klüger von AMD gar keine RayTracing Sachen herzustellen? Einfach mal NVIDIA im Regen stehen lassen?

Im Endeffekt ist AMD am längeren Hebel, weil sie die APUs für die Next Gen Konsolen herstellen.

Dir ist aber schon klar, dass Microsoft mir DXR sehr wohl eine treibende Kraft in der Raytracing-Entwicklung ist? Wieso sollten sie A: AMD einfach machen lassen? B: Wieso sollte AMD hier Entwicklungszeit verschwenden? Völliger Quatsch!

AMD wird bald genau so Raytracing anbieten wir NVidia. Letzterer ist aber deutlich zu früh dran und lässt Early Adopter ordentlich zur Kasse rufen!
 
Es ist im Grunde die übliche Marketingausrede. Navi wird also schon mal keinen DXR-Support bieten und für die danach kommende Generation klingt das auch nicht zuversichtlich. Wird spannend, wenn man NVIDIA hier die nächsten drei Jahre das Feld überlässt.
Angesichts dessen, dass Nvidia sowieso alles proprietär macht und mit ihrer derzeitigen Marktmacht quasi Narrenfreiheit hat ist es ziemlich egal, ob AMD jetzt oder erst in drei Jahren etwas in Richtung Raytracing macht.
 
Ich würde das auch an AMD´s stelle an die Wand fahren lassen. Hat Nvidia auch gerne gemacht mit den neuen API´s und vielen anderen Features.

Anbieten würde es sich jedenfalls. Zumal MS und Sony in der kommenden Konsolengeneration garantiert keine Chipfläche für Raytracing opfern werden und AMD damit nicht in zugzwang gerät.
 
Da hollst du aber sehr weit aus.. In den wenigsten Titeln ist PhysX zu finden, also wo hat sich denn bitte PhysX durchgesetzt?
Es mag zwar ein nettes Gimmick von Nvidia sein, mehr ist es aber dann doch nicht.
Hab ich doch gerade erklärt oder hast du den Teil nicht gesehen? Die Physik-engine der großen Engines wie eben Unigen, unrealEngine und co basieren auf PhysX. Kannst ja gerne nachschaun.


Ich würde das auch an AMD´s stelle an die Wand fahren lassen. Hat Nvidia auch gerne gemacht mit den neuen API´s und vielen anderen Features.
jaja - so wie nvidia AMDs Tesselation gegen die Wand gefahren hat, oder Vulcan (ja, nvidia ist einer der Mitgründer), oder variable Bildraten für den VESA-Standard DisplayPort... oh warte.
Abgesehen davon das sowohl AMD als auch Nvidia schon seit längerem für RayTracing eigene Libraries anbieten (AMD aht leider noch Probleme) und nvidias OptiX jetzt Hardware-beschleunigung auch bei älteren Programmen ermöglicht.....
Für CAD-Software und 3D rendern ist das wirklich hilfreich wenn das Vorschaubild innerhalb einer Sekunde gerendert ist und trotzdem besser aussieht als das wofür man bisher 5 Sekunden warten musste. Bringt dem Gamer an sich nicht viel, aber zu behaupten Nvidia würde die Technologie ausbremsen wenn sie seit Jahren auch offene Standards vorantreiben ist witzlos.


Du hättest aber ein gutes Argument gehabt wenn du darauf eingegangen wärst wie Nvidia die offenen Standards zwar mitentwickelt aber selbst dann nicht anbietet.
Die GTX Karten wäre durchaus in der Lage FreeSync zu nutzen und sie könnten auch nebenbei G-Sync als die highend-variante anbieten, aber was auch immer sie geritten hat sie tuns nicht.


Nach den Tests von DigitalFoundry kann man den DLSS Effekt (Gleiche Leistung und Bildqualität) auch erreichen, wenn man von 4k auf 1800p runter geht.
Das haben sie bei FF XV und der Infiltrator Demo getestet.

Was den Test ziemlich Wertlos macht das FF 15 von dem her einfach nur schlecht ist. das Spiel und die Demo haben so viele Probleme...
Ich bin zwar ein richtiger FinalFantasy Fanboy, aber obwohl ich das Spiel besitze hab ich es ncoh keine 2 Stunden gespielt weil es auf meiner alten AMD karte so viele Probleme macht.
 
Das kann heute noch keiner sagen, aber ich denke wenn MS oder Sony wahnsinnig wird und Raytracing als werbewirksamen Vorteil gegenüber dem Konkurrenten haben will wird AMD es bauen. Wissen tun sie vermutlich schon wie.
Ich kann mich noch an die ersten Raytracing-Prophezeiungen erinnern. Ich glaub damals hatte ich noch eine Geforce 4 Ti.

Trotzdem wird AMD RDX bald implimentieren müssen. Auch wenns keinem was bringt ist es werbewirksam, und spätestens wenn in den Reviews bei den nächsten Grafikkarten "zukunftssicher weil RDX" steht gibts Probleme. 3dfx hat u.A. dieses ignorieren neuer Technologien das Genick gebrochen. Erst 32 Bit Farbtiefe ignoriert, dann T&L. Beides konnte auch die Konkurrenz bei Markteinführung nicht ausreichend performant, trotzdem wurde es sehr werbewirksam eingesetzt und hat den Anfang des Weges markiert, auf dem sich NV heute noch äußert erfolgreich bewegt.
 
Hab ich doch gerade erklärt oder hast du den Teil nicht gesehen? Die Physik-engine der großen Engines wie eben Unigen, unrealEngine und co basieren auf PhysX. Kannst ja gerne nachschaun.

Das ist allerdings nahezu ausschließlich CPU PhysX, nicht die per GPU beschleunigte variante.
Wenn das System offener wäre, würde sich endlich auch GPU beschleunigtes PhysX durchsetzen.

Was den Test ziemlich Wertlos macht das FF 15 von dem her einfach nur schlecht ist. das Spiel und die Demo haben so viele Probleme...
Ich bin zwar ein richtiger FinalFantasy Fanboy, aber obwohl ich das Spiel besitze hab ich es ncoh keine 2 Stunden gespielt weil es auf meiner alten AMD karte so viele Probleme macht.

Aktuell gibt es allerdings noch keine anderen Spiele, oder Tech Demos, an denen man das testen könnte.
 
Ohne GPU Beschleunigung also ein Rohrkrepierer. Das könnte auch jeder andere Softwarebibliothek sein, die PhysX ist nur einfach gut programmiert worden von Ageia und wird deshalb gerne verwendet.

Könnte, macht aber keiner. Also klar arbeiten andere auch Bibliotheken aus, weit verbreitet sind die aber nicht. Das als Rohrkrepierer abzutun finde ich nach der Zeit wie es das schon gibt und noch geben wird, fraglich. Klar kann man wieder über den Ansatz diskutierten.
 
Und was heißt für dich perfekt? Optisch perfekt oder physikalisch perfekt? Wir haben uns einfach daran gewöhnt wie es mit den Rastern auszusehen hat. Das ist aber weit weg von physikalisch korrekt und dadurch auch vom Realismus (wenn man es streng sieht).

Als erstes fällt mir Shift 2 Unleashed ein. Die Fahrzeuge spiegeln je nach Lack perfekt wieder, wenn ein anderes Fzg überholt (inkl. Krümmung usw), oder beim Start selbst Zuschauer die winken, oder auch die Wolken, Schilder und und und. Das mag nicht perfekt sein, sieht aber schon verdammt gut aus, nahezu perfekt, da es auch keine Zeitversatz gibt. Es ist also möglich und das Spiel ist schon einige Jahre alt.
 
Könnte, macht aber keiner. Also klar arbeiten andere auch Bibliotheken aus, weit verbreitet sind die aber nicht. Das als Rohrkrepierer abzutun finde ich nach der Zeit wie es das schon gibt und noch geben wird, fraglich. Klar kann man wieder über den Ansatz diskutierten.

Die CPU Berechnung ist ja auch gut, es gibt nur lediglich keinen Grund mehr Physik auf der GPU zu berechnen. Wofür wertvolle Ressourcen vergeuden wenn es genug CPU Kerne gibt die rum döddeln und dann nur auf einem Teil der Hardware läuft.

Ist das selbe wie mit Hairworks und TressFX.
Es wird fast nur noch TressFX benutzt. Ist schneller, einfacher und läuft überall performant.
 
Das ist allerdings nahezu ausschließlich CPU PhysX, nicht die per GPU beschleunigte variante.
Wenn das System offener wäre, würde sich endlich auch GPU beschleunigtes PhysX durchsetzen.

Es ist sogar Open Source...... GPU Beschleunigung wird einfach nicht mehr so sehr eingesetzt weil die CPUs jetzt stark genug sind. PhysX war früher die CPU-implementierung einfach schlecht - entweder man hat eine NVidia Karte oder man schaltet es aus. Mittlerweile hat sich das geändert und auch die viel zu schwachen AMD-Prozessoren gibt es nicht mehr (auf intel lief es deutlich besser als auf AMD weil PhysX Float-lastig ist und die FX-Series da einfach nur weggebrochen ist).


Es hat sich eben seit der Einführung deutlich geändert und wird jetzt nicht mehr angeschrieben genauso wie man auch nirgends Spiele findet die noch mit Tessellation werben (oh man, wie Crysis 2 das damals verkackt hat XD ).
Mit AVX und höherem Takt haben die CPUs jetzt um ein vielfaches höhere Float-Leistung als zuvor, vor allem wenn man bedenkt das PhysX in den ersten Iterationen auf der CPU single-threaded war. Es war damals auch nur als Fallback gedacht weil es ja auf nvidia Karten laufen sollte.


Btw - AMD hat ja auch schon seit längerem ihre eigene Raytracing Library - schon einmal neu überarbeitet, hat aber leider noch Probleme mit der Leistung und mit vielen Bugs, aber da werden sie sicher dran arbeiten und auch mit dedizierter Hardware beschleunigen wollen.
 
Wäre es nicht klüger von AMD gar keine RayTracing Sachen herzustellen? Einfach mal NVIDIA im Regen stehen lassen?

Im Endeffekt ist AMD am längeren Hebel, weil sie die APUs für die Next Gen Konsolen herstellen.
Wenn die keine RayTracing Funktion haben, was ich glaube, dann wird sich RayTracing die nächsten 10 Jahre sehr schwer tun.

Technische Entwicklungen werden doch immer erst von den Konsolen vorangebracht, weil die in höheren Stückzahlen verkauft werden.

Zumindest noch nicht so früh, AMD braucht eh noch Zeit.
 
Ich bezweifle mal ganz stark, dass AMD mit den neuen Gaming-GPU's eine Hardware-Beschleunigung für Raytracing bringt. Wenn, dann kann das Feature, wie bei NV, ja wieder nur gezielt einzelne Effekte abarbeiten, für mehr wird die Leistung nicht reichen.

Meiner Meinung nach wird es auch noch sehr lange dauern bis Raytracing in Echtzeit-Anwendungen wie Spielen interessant wird.

Ein kleines Beispiel um die notwendige Performance so ganz ungefähr abschätzen zu können: Für die BMW Benchmark Szene in Blender benötigt meine 980Ti ca. 3min. (Path-Tracing@150Samples), dann hat man ein halbwegs rauschfreies Bild. Das sind ~180.000ms, für einen Frame. Um auf 60fps (16ms/Frame) zu kommen müsste meine Graka also ca. um den Faktor ~11.000 schneller sein.

Meines Wissens unterstützt Blender die RTX Karten noch nicht, daher habe ich dahingehend noch keinen Vergleich gefunden. Jedoch ist auch so ersichtlich, dass wird uns noch für eine Weile mit dem althergebrachten Rasterizing in Spielen begnügen müssen bevor wir in den Genuss einer vollständig Ge-Raytraced'en Szenerie mit annehmbaren FPS-Werten kommen. :-D

Oder zumindest mit nur teilweise eingesetzten Raytracing-Effekten und einem Algorithmus welcher das Bildrauschen entfernt, in meinen Augen nicht so das gelbe vom Ei auch wenn es durchaus ein interessanter Zwischenschritt ist. :-)
 
Zurück