Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

Das Schöne ist ja, dass NVidia sich mit RTX selber in Zugzwang bringt, DX12, resp. die neuen Low-Level-APIs zu pushen, was generell wiederum eher AMD zugute kommt xD

Aber wenn Dice in BFV DX12 bis Release nicht endlich in den Griff bekommt, wird der Start von Gaming-RayTracing ein Desaster...
Next patch will introduce some rendering improvements (for both Dx11, Dx12, and DXR). Can't promise that it will fix everything, but hopefully things will be a bit better. :)
Battlefield V PC performance thread | Page 7 | ResetEra

Mal schauen, ob der DX12-Pfad von katastrophal auf nur noch schlecht gebracht werden wird. :ugly:
Bei Battlefield 5 läuft immerhin der DX11-Pfad so gut, dass es keinen dringenden Bedarf für DX12 gibt, anders als bei Hitman 2, da lässt die Performance aufgrund von starken CPU-Limits sehr zu wünschen übrig.
 
Das ist falsch, AMD stellt dazu keinerlei Dokumentation, Anleitung/API Extension oder gar Treiber zur Verfügung.
AMD hat Primitive Shader gestrichen und will sie erst mit Navi bringen, wahrscheinlich weil die Implementierung kaputt ist.


Ich finde die Argumentation der Die Hard AMD Fans erstaunlich.
Zuerst stichelt man jahrelang gegen Nvidia, weil sie angeblich (unbewiesen) Directx12 aufhalten und Bremse spielen.
Und dann wenn neue Features kommen die Directx12 voranbringen können, ist AMD´s Untätigkeit bezüglich RT wieder das Richtige.
Software braucht nunmal seine Zeit, das geht nicht von heute auf morgen.

Was heißt hier Untätigkeit? AMD hat doch schon vor einem Jahr gesagt, dass Raytracing in den Konsumenten-/ Spielebereich gelangen würde. Da haben die Nvidia Fanboys AMD belächelt, dass das keinen Sinn machen würde.

Außerdem ist Nvidia eine Generation weiter, d.h. nicht, dass Raytracing in Navi 20 oder gar Navi 11, 10 nicht eingesetzt werden würde. Zumal (gemäß der ersten Gerüchte) Abschied von der GCN Architektur genommen sein soll.

Untätigkeit kann man AMD erst dann vorwerfen, wenn sich herausstellt, dass RT kein Totengräber ist (ist es wohl nicht) und, wenn sie dann diese Technologie zukünftig für ihre Grafikkarten nicht anböten.

Für mich klingt es so als wolle AMD RT bereits im Mittelklassesegment anbieten (mittelfristig?).
 
Für mich klingt es so als wolle AMD RT bereits im Mittelklassesegment anbieten (mittelfristig?).

Fuer mich klingt das nach poor Volta zwanzigste Auflage in rot

Poltern auch wenn man nix im Rohr hat, was das ueber einen ueberschaubaren Zeitrahmen bewerkstelligen koennte

Aber Poltern geht ja bekanntlich immer

Amd ist ´´mindestens´´ eine Generation im Rueckstand, wie gross soll da denn der Chip werden ,wenn man wie Nvidia auch Rastergrafik weiter im Chipdesign beruecksichtigen muss, bei gleichzeitigen Ausbau mit Tensor Logik?

Und was verbraucht der Hochofen dann, weil Effizienz u so ist ja auch nicht gerade AMDs Steckenpferd

Bei der Ausgangslage wollen sie also Raytracing in die ´´Mittelklasse´´ bringen, nein ,doch ,ja ,oh;)
 
Zuletzt bearbeitet:
Erst ab GCN3 gab es native FP16 ALU ops und AMD hat den FP16-Support für GCN3/4 in DX rausgenommen, es läuft nur auf GCN5.

Und bei Raytracing ist es unglaublich, wie die Leute darauf rumhacken.
Der Launch von Turing ist keine zwei Monate her und auch wenn man offensichtlich viele Features schon früher in Spielen gesehen hätte, ist nicht schon eine halbe Ewigkeit vergangen und man sollte sich nicht schon ein absolutes Urteil vor ersten Tests bilden.

Einige ignorieren auch den Profi-Markt, der sie nicht direkt anspricht, aber Nvidia hat hier nicht nur ein "nutzloses" Feature für Gamer vorgestellt, Raytracing-Produktionen werden Turing einsetzen, AMD wird hier an Boden verlieren.
AMD ist im Prinzip genauso motiviert Raytracing zu implementieren, Echzeitraytracing bei High-End-Games @4K, @ 60 FPS ist nicht der Maßstab den man allgemein treffen muss.

Ray Tracing ist schon eine geile Sache - seit Amiga Zeiten...
Für Profis auch jetzt deutlich mehr mit den RTX Quadros, wenn es um Filme und Bildbearbeitung geht.

Aber:
Du wirst kaum bezweifeln, dass wir noch diverse Generationen von der benötigten Rechenpower entfernt sind, die für komplettes Ray Tracing in Spielen benötigt wird.
Ich schaue mir die RTX Karten aus Gamer Sicht an - die 2070, 2080 und 2080 TI sind ja nur für Gamer.
Und da wurde schon früh deutlich, dass RT aktuell noch weit außerhalb der Reichweite ist.
DICE hat in einem (von mir schon ein paar Mal verlinkten) Artikel auch gesagt, dass sie aktuell einen Ray für mehrere Pixel nutzen und auch mehrere Fenster und Türen eines Hauses wie ein en Spiegel behandeln wollen (also die Spiegelungen kopieren).

Wie gesagt: Ray Tracing an sich ist super.
Aber es wird sich erst dann nennenswert in Spielen verbreiten, sobald auch eine XX50, bzw. eine R* X60 RT flüssig in 1080p 60 darstellen kann.
Alles andere ist für den Spielemarkt ein reines Gimmick.
Das würde gut als Dreingabe zu einem Yps Heft passen.

Die Profis werden auf jeden Fall einen enormen Sprung sehen und die Renderzeit dramatisch senken - das ist für uns Spieler aber vollkommen egal.
 
Ich frage mich halt, warum mit Raytracing im GPU-Bereich nicht schon früher in dem Umfang experimentiert wurde.
Jede Radeon/GeForce ist doch eigentlich schon seit DirectX10 dazu fähig. Reichte früher dafür die Rechenleistung nicht aus? Traute sich kein Entwickler da ran?

Schon vor mehr als 10 Jahren sagte mal irgend' ein Experte (ich glaube, einer von den "Crytek-Brüdern") dass Polygone an sich eigentlich veraltet sind und irgendwann ihre Grenzen haben. Wenn also keiner auf Voxel oder so umsteigen will, wäre Raytracing der nächste logische Schritt Richtung Fotorealismus. Nur warum hat das früher keiner gemacht? Da ist mein Layenwissen grade etwas überfordert.^^
 
Wie sieht das dann eigentlich in Zukunft aus?

DXR ist ja die API-Erweiterung. Das heisst, jede DX12 fähige Hardware ist theoretisch heute schon in der Lage, Raytracing zu berechnen. Indem man es z.B. über die Shader laufen lässt. Dies ist natürlich mit aktueller Hardware wenig performant, weshalb nV dedizierte Einheiten entworfen hat. Außerdem bietet man ähnlich wie bei Gameworks vordefinierte Effekte/Bausteine an, die Gebrauch von diesen fixed-function Einheiten machen. Das läuft unter dem Label RTX.

Sollte AMD in Zukunft auch dedizierte RT-Einheiten verbauen, müssten Entwickler dann immer 2 Pfade pflegen?
Da es mit RTX bereits eine Vendor gebundene Middleware gibt, seh ich es kritisch, wie da in Zukunft eine vernünftige Standardisierung entstehen soll.
Oder ist das alles gar nicht so kompliziert, da es eine Standard API gibt, die Software also einfach Berechnungen losschickt und die Hardware gucken muss, wie sie damit klar kommt?
 
Ich frage mich halt, warum mit Raytracing im GPU-Bereich nicht schon früher in dem Umfang experimentiert wurde.
Jede Radeon/GeForce ist doch eigentlich schon seit DirectX10 dazu fähig. Reichte früher dafür die Rechenleistung nicht aus? Traute sich kein Entwickler da ran?

Schon vor mehr als 10 Jahren sagte mal irgend' ein Experte (ich glaube, einer von den "Crytek-Brüdern") dass Polygone an sich eigentlich veraltet sind und irgendwann ihre Grenzen haben. Wenn also keiner auf Voxel oder so umsteigen will, wäre Raytracing der nächste logische Schritt Richtung Fotorealismus. Nur warum hat das früher keiner gemacht? Da ist mein Layenwissen grade etwas überfordert.^^

Ganz schlicht u ergreifend ohne den potenten AI Entrauscher , der nur durch die schnellen Tensor Einheiten so performant laeuft ,wuerdest du noch ewig und 3 Tage auf Echtzeitraytracing warten

Das Raytracing aber der Koenigsweg wird ,das weiss man in der Filmbranche schon seit computergeneriert Effekte eingebaut werden, nur ging das bisher nie in Echtzeit, oder mit Rechenclustern so gross wie ein Wohnzimmer
 
Also mal ganz ehrlich: RT ist seeehr schick. Punkt. Echter Mehrwert? Null. Höhere Hertzzahlen und Auflösungen bieten meinen Augen vorallem eines, nämlich Entlastung. Sprich: je höher deren Qualität, desto länger kann man Monitorarbeit/Gaming ohne mögliche Schäden machen.
Und wer hält schon in einem Game inne und betrachtet sich eingehend das Monitorbild? Irgendwann ist es unserem Gehirn egal wie toll ein Bild ausgegeben wird, da es sich auf das Wesentliche fokusiert.
Von daher ist RT nett aber eben "nur" Kosmetik. Nicht mehr, aber auch nicht weniger.
Gruß T.
 
Wo Herr Wang recht hat, hat er Recht :-)

NV`s Retraycing Vorsprung bringt nicht viel da nur eine kleine Masse das ganze nutzen kann zur Zeit und es ist eh nur ein Bruchteil eines Spiels der mit RT läuft :-)
 
da muss ich mich dann nochmal wiederholen:
Raytracing in Hardware bringt vor allem Leistungstechnisch einiges.
Die 2 Hauptgebiete in denen man es in nächster zeit sehen wird werden wohl Spiegelug und Beleuchtung sein - inhärent kompliziert zu programmieren und wahre Leistungsfresser. Mit dedizierter Hardware bringt das dann gleich doppelte Vorteile:
Es wird einfach über die API (Dx12/Vulcan) die Lichtberechnung per Raycasting gestartet. Raytracing ist vom Programmieraufwand her sehr einfach - kurze Entwicklungszeit (Wenn wir dann mal an dem Punkt sind wo kein Fallback für andere Methoden mehr verbaut wird). Und da das ganze auf dedizierter Hardware läuft läuft es parallel zum Rest des Renderings - die Ressourcen die früher für die Beleuchtung auf der GPU verbraucht wurden stehen jetzt wieder zur Verfügung.



Kommt dazu, dass Upscaling bis vor dem Launch der RTX-Karten bei der PC Masterrace mega verpönter und so krass schlechter Konsolen-shit war.
Aber wahrscheinlich ist es etwas ganz anderes, wenn man Upscaling mit einer hippen KI kombiniert und ein neues kryptisches Kürzel dafür erfindet.

So wie es vorgestellt wurde kann DLSS dann deutlich ebssere Resultate liefern als herkömmliches Upscaling. Es muss für jedes Spiel extra antrainiert werden damit das DLSS auch richtig abschätzt welche Details zu zeigen sind.
Ist im Grunde ganz einfach - nehmen wir als beispiel Zeichnen: Jeder kann so lala ein Haus zeichnen. Wenn man so ein Bild vergrößert wirds auch nicht besser und wenn man es schöner haben will muss man mehr Zeichnen lernen und Zeit investieren. DLSS ist dann jetzt eine zweite Person die sich ansieht was den versucht wurde zu zeichnen und nach dem ansehen einiger Bilder dann auch eine schnell dahingezeichnete Skizze richtig interpretieren und mit Details ausfüllen kann.

Finde das Feature aber dennoch weitestgehend unnütz - Spiele sind vom aussehen her sehr vielseitig und ich glaube kaum das der Treiber dann so gewaltig groß wird das er auch wirklich bessere Bilder abliefern kann. Für Bildbearbeitung gibts sowas schon länger - da kann auch aus einem sehr schlechten verwaschenem Filmchen dann eine hochauflösende Aufnahme gemacht werden - mit entsprechenden Daten gefüttert auch mit sehr viel mehr Detail und höherer Auflösung als das original. Dafür muss es aber eben auf die Szene abgestimmt werden und es dauert entsprechend.


Das Schöne ist ja, dass NVidia sich mit RTX selber in Zugzwang bringt, DX12, resp. die neuen Low-Level-APIs zu pushen, was generell wiederum eher AMD zugute kommt xD

Aber wenn Dice in BFV DX12 bis Release nicht endlich in den Griff bekommt, wird der Start von Gaming-RayTracing ein Desaster...
Aber auch nur wenn AMD mit der DX12 Unterstützung nicht hinterher hinken würde. So wie früher auf nvidia wegen Dx 11.1 herumgehackt wurde könnte man jetzt anbringen das AMD DX12.1 noch immer nicht unterstützt - erstmal egal da sowieso die wenigsten Spiele überhaupt Dx12 nutzen und von denen noch weniger wirklich die vorteile nutzen.
Raytracing gibt es jetzt sowohl bei Dx12 als auch Vulcan. Eine Softwarelösung ist Sinnfrei, dafür fehlt die Leistung, die frage ist daher nur Wann AMD es in Hardware bringt, wie Leistungsfähig (kann ja leicht sein das wir das selbe wie bei Tesselation nur umgekehrt sehen werden) und ob es bis dahin auch schon mehr Anwendung findet.



Ich frage mich halt, warum mit Raytracing im GPU-Bereich nicht schon früher in dem Umfang experimentiert wurde.
Jede Radeon/GeForce ist doch eigentlich schon seit DirectX10 dazu fähig. Reichte früher dafür die Rechenleistung nicht aus? Traute sich kein Entwickler da ran?
Rechenleistung - schlicht und einfach.
Bei der RTX 2080 Ti nehmen die RTX-Cores ungefähr halb so viel Fläche wie die normalen CUDA cores - das ist spezialisierte Hardware die die Strahlenberechung sehr effizient abarbeiten kann (Spezialhardware ist oft um den Faktor 10 oder mehr schneller).

Schon vor mehr als 10 Jahren sagte mal irgend' ein Experte (ich glaube, einer von den "Crytek-Brüdern") dass Polygone an sich eigentlich veraltet sind und irgendwann ihre Grenzen haben. Wenn also keiner auf Voxel oder so umsteigen will, wäre Raytracing der nächste logische Schritt Richtung Fotorealismus. Nur warum hat das früher keiner gemacht? Da ist mein Layenwissen grade etwas überfordert.^^
Diejenigen die behaupten Polygone wären veraltet sind meistens Personen mit wenig beis garkeiner Erfahrung was die Grundlegende Technik betrifft. Polygone werden verwendet weil sie die effizienteste Lösung darstellen die überhaupt möglich ist. Zur Beschreibung einer Oberfläche im 3D-Raum benötigt man mindestens 3 Punkte mit je 3 Koordinaten - ein Dreieck, die Grundstruktur aller Polygone in Videospielen und das worauf GPUs spezialisiert sind.
klar gibt es Anwendungsgebiete wo man nicht mit Polygonen zeichnet, aber eben in Spielen braucht man dann dafür auch um einiges mehr Leistung.

bei den RTX Karten geht es ja auch nicht darum das man das Spiel damit rendert sondern das die karten die Berechnung von Strahlen effizient mit dedizierter Hardware lösen können - und da es ein eigener bereich am Chip ist kann das auch nebenbei laufen ohne die CUDA-kerne zu belasten. Beleuchtung und Spiegelungen sind 2 Sachen die relativ aufwendig zu programmieren und berechnen sind die damit dann ausgelagert werden können. Im Extremfall einer Texturmäßig einfachen Szene mit vielen Lichtern kann man dann auch schon mal die 5fachen FPS oder mehr erhalten, oder aber bei sehr Shaderlastigen Szenen keinen vorteil haben.



Wie sieht das dann eigentlich in Zukunft aus?

DXR ist ja die API-Erweiterung. Das heisst, jede DX12 fähige Hardware ist theoretisch heute schon in der Lage, Raytracing zu berechnen. Indem man es z.B. über die Shader laufen lässt. Dies ist natürlich mit aktueller Hardware wenig performant, weshalb nV dedizierte Einheiten entworfen hat. Außerdem bietet man ähnlich wie bei Gameworks vordefinierte Effekte/Bausteine an, die Gebrauch von diesen fixed-function Einheiten machen. Das läuft unter dem Label RTX.

Sollte AMD in Zukunft auch dedizierte RT-Einheiten verbauen, müssten Entwickler dann immer 2 Pfade pflegen?
Da es mit RTX bereits eine Vendor gebundene Middleware gibt, seh ich es kritisch, wie da in Zukunft eine vernünftige Standardisierung entstehen soll.
Oder ist das alles gar nicht so kompliziert, da es eine Standard API gibt, die Software also einfach Berechnungen losschickt und die Hardware gucken muss, wie sie damit klar kommt?

Es ist eine normale Standard-API - gleich wie zB Tesselation.
Nvidias RTX cores sind nur eine mögliche Hardwarelösung um die Befehle abzuarbeiten und nvidia bietet dafür auch noch eine andere Schnittstelle an die vor allem für Professionelle Software gedacht ist.
APis gibt es in Dx12, Vulcan und nvidia exclusive OptiX.
 
Fuer mich klingt das nach poor Volta zwanzigste Auflage in rot

Poltern auch wenn man nix im Rohr hat, was das ueber einen ueberschaubaren Zeitrahmen bewerkstelligen koennte

Aber Poltern geht ja bekanntlich immer

Und was verbraucht der Hochofen dann, weil Effizienz u so ist ja auch nicht gerade AMDs Steckenpferd

Amd ist ´´mindestens´´ eine Generation im Rueckstand, wie gross soll da denn der Chip werden ,wenn man wie Nvidia auch Rastergrafik weiter im Chipdesign beruecksichtigen muss, bei gleichzeitigen Ausbau mit Tensor Logik?

Bei der Ausgangslage wollen sie also Raytracing in die ´´Mittelklasse´´ bringen, nein ,doch ,ja ,oh;)


Was die mögliche neue Architektur unter der neuen Fertigungstechnik im Stande zu leisten ist, wissen wir nicht. Ich bin da ganz unvoreingenommen.

Ich weiß, dass AMD in der Vergangenheit unseren Erwartungen blieb. Allerdings kann man nur schwerlich darauf rückschießen, wie es zukünftig weiter geht. Kein Autofahrer fährt noch vorne mit dem Blick in den Rückspiegel.

Auf der Autobahn ginge es vielleicht länger gut. In kurvenreicheren Gegenden, also dann wenn es viele Veränderungen gibt, so wie derzeit (neue Architektur, neue Fertigungstechnologie, neues Management*), kann man das nicht machen.

*Der Marketing Manager, der für die Poor Volta Kampagne verantwortlich war, ist, so wie Es ja Koduri, der für Vega verantwortlich war, zu Intel gewechselt.
 
Zuletzt bearbeitet:
Die CPU Berechnung ist ja auch gut, es gibt nur lediglich keinen Grund mehr Physik auf der GPU zu berechnen. Wofür wertvolle Ressourcen vergeuden wenn es genug CPU Kerne gibt die rum döddeln und dann nur auf einem Teil der Hardware läuft.

Ist das selbe wie mit Hairworks und TressFX.
Es wird fast nur noch TressFX benutzt. Ist schneller, einfacher und läuft überall performant.

GPU Physix war von anfang an eine scheiss Idee !
schon als es eingefuerhrt wurde hatten schon sehr viele Quad Cores und die Spiele nutzen davon 2 oder bestenfalls 3 Kerne aus , als dann der FX kam war es noch frustrierender , denn dem haette es am wenigsten geschadet wenn Physix auf einem Extra Kern gelaufen waere ;)
davon ab brauchte die GTX 480 um noch bei Mafia 2 60 FPS zu packen eine extra Physx GPU , weil sie beides nicht mehr gepackt hat , schon ein schlechter Witz wenn du die Top GPU hast einen Unterbau mit Quad aber du immer noch eine Physx GPU gebraucht hast ...
Stimmt aber Marketing.
ATI (oder war es schon AMD?) hatte doch mit der ~X900er Serie noch DX9 wo NV schon DX10 anbot.
Auch mit den damaligen Karten war zu diesem Zeitpunkt mit den Karten unter DX10 nichts zu reißen.
Später hatte doch AMD mit den HD 3870 (?) schon DX10.1 was aber kaum ein Hersteller von Spielen genuzt hatte (wenigstens zu den "Lebzeiten" der Karte).
Leider würde sich nauch ne ~ RTX2030 gut machen wenn die mit Raytrancing beworben wird. => Mit Glück 320p@60FPS aber auf der Packung sieht man ein HQ Bild von BF5 & Co.
K.a wie du darauf kommst , selbst die X 1XXX Reihe war noch genauso DX9 wie die Nvidia 7XXX Karten anno 2006 , und 2007 kammen dann ziemlich zeitnah die Ati 2XXX und legendaeren Nvidia 8XXX mit DX10 , die HD 3XXX Karten waren die ersten unter AMD Regie soweit ich das im Kopf habe ... gehoert hat denen der Laden aber schon vorher ;)
Ich hab aber mal gelesen das die HD 4XXX Karten schon beinahe denn Kompleten DX 11 features Katalog koennen, da wuerde wohl kaum was fehlen und die HD5XXX konnte ja schon DX11 bevor der standard Fix war ;)
 
Zuletzt bearbeitet:
Diejenigen die behaupten Polygone wären veraltet sind meistens Personen mit wenig beis garkeiner Erfahrung was die Grundlegende Technik betrifft. Polygone werden verwendet weil sie die effizienteste Lösung darstellen die überhaupt möglich ist. Zur Beschreibung einer Oberfläche im 3D-Raum benötigt man mindestens 3 Punkte mit je 3 Koordinaten - ein Dreieck, die Grundstruktur aller Polygone in Videospielen und das worauf GPUs spezialisiert sind.
klar gibt es Anwendungsgebiete wo man nicht mit Polygonen zeichnet, aber eben in Spielen braucht man dann dafür auch um einiges mehr Leistung.
Hört sich für mich nach einem Widerspruch an.
Es geht ja auch darum, sich dem Fotorealismus anzunähern und "effizient" heißt nicht automatisch, dass damit auch das bestmögliche Ergebnis zu erzielen wäre.^^
Das erste Crysis verwendete für die Terrain-Darstellung Heightmaps und Voxel und auch John Carmack äußerte sich hinsichtlich Fotorealismus schon negativ gegenüber Polygone hinsichtlich ihrer Fähigkeit, echten Fotorealismus in Spielen zu erzeugen. Weder den Yerlis noch Carmack würde ich jetzt partout jede Erfahrung absprechen wollen - immerhin handelt es sich hier um die Far Cry/Crysis bzw. Doom/Quake-Erfinder.

Den einen oder anderen Evolutionsschritt wird es wohl brauchen - egal ob Polygone mit Raytracing oder Voxel oder Voxel mit Raytracing oder eine irgendwie anders geartete Kombination. Man könnte jetzt natürlich auch noch N.U.R.B.S. oder sowas ausgraben.:ugly:
Aber inzwischen sind wir an einem Punkt angelangt, in dem verdammt viele AAA-Spiele allesamt irgendwie gleich aussehen, egal auf welcher Platform.
Das war früher mal anders.;)
Deswegen postuliere ich mal, dass Polygone ohne Raytracing langsam am Ende ihrer "effizienten" Möglichkeiten angelangt sind.:schief:
 
GPU Physix war von anfang an eine scheiss Idee !
schon als es eingefuerhrt wurde hatten schon sehr viele Quad Cores und die Spiele nutzen davon 2 oder bestenfalls 3 Kerne aus , als dann der FX kam war es noch frustrirender , denn dem haete es am wenigsten geschadet wenn Physix auf einem Extra Kern gleuafen waere ;)
davon ab brauchte die GTX 480 um noch bei Mafia 2 60 FPS zu packen eine extra Physx GPU , weil sie beides nicht mehr gepackt hat , schon ein schlechter Witz wenn du die Top GPU hast einen Unterbau mit Quad aber du immer noch eine Physx GPu gebraucht hast ...

Naja, eigentlich damals nichts anderes als mit RT heute. Wenn man BF5 mit RT im eigentlich gängiger Top-Auflösung haben wollen würde (4k 60FPS) dann wird eine aktuelle Top GPU (2080Ti) auch nicht ausreichen.

Für RT im Gamingbereich ist es einfach noch viel viel zu früh. Aus meiner Sicht haben wir die RTX Grafikarten nur aus einem Grund: nVidia war zu geizig/faul explizit GPU's für Quattro und Gaming zu entwickeln. Das was die RTX Quattros könne, dafür gibt es auch einen riesigen Markt (den nVidia will)
Das was die RTX 20XX können, ist Bullshit und braucht kein Mensch am aktuellen Markt (den nVidia schon hat)

Es ist eigentlich Offensichtlich das nVidia NICHT für den Gamingmarkt entwickelt hat. Versucht aber natürlich (würde jedes Unternehmen so machen) das mittels Marketing schön zu Reden.
RT bringt uns Gamer in der aktuellen Form Null weiter, im Gegenteil. Es ist ein typischer Blender.
 
[...]
Wie gesagt: Ray Tracing an sich ist super.
Aber es wird sich erst dann nennenswert in Spielen verbreiten, sobald auch eine XX50, bzw. eine R* X60 RT flüssig in 1080p 60 darstellen kann.
Alles andere ist für den Spielemarkt ein reines Gimmick.
Das würde gut als Dreingabe zu einem Yps Heft passen.
[...]
Welche technischen Fortschritte waren zu Beginn nicht Gimmicks?
Ah, da kommt es auch wieder völlig darauf an was jemand als "Gimmick" bewertet.
Jeder der ein wenig in die Historie schaut weiß, dass die Verbreitung von neuen Sachen eher schleppend vorangeht.
Aber jeder kann selber entscheiden, welche Features ihm das Geld wert sind und wenn wir über Dinge diskutieren und allgemein pauschalisieren möchten, wäre es da nicht angebracht, immerhin auf die ersten praktischen Ergebnisse zu warten?

Ich frage mich halt, warum mit Raytracing im GPU-Bereich nicht schon früher in dem Umfang experimentiert wurde.
Jede Radeon/GeForce ist doch eigentlich schon seit DirectX10 dazu fähig. Reichte früher dafür die Rechenleistung nicht aus? Traute sich kein Entwickler da ran?

Schon vor mehr als 10 Jahren sagte mal irgend' ein Experte (ich glaube, einer von den "Crytek-Brüdern") dass Polygone an sich eigentlich veraltet sind und irgendwann ihre Grenzen haben. Wenn also keiner auf Voxel oder so umsteigen will, wäre Raytracing der nächste logische Schritt Richtung Fotorealismus. Nur warum hat das früher keiner gemacht? Da ist mein Layenwissen grade etwas überfordert.^^
Es wurde damit experimentiert, aber die Technik war allgemein zu limitiert, wir hatten damals keine Compute-Shader, um flexibel die ALUs zu programmieren, es gab keine generischen read/write caches und shared memory was man nutzen konnte, man musste sich Zeug eklig über Pixel-Shader und Texture-Memory zusammeln frickeln.
Hier ist exemplarisch ein Forschungspaper, was auf eine Umsetzung von Raytracing auf GPUs eingeht mit einer Geforce 6800GT von 2004:
http://www.cse.chalmers.se/~uffe/xj...emented on Programmable Graphics Hardware.PDF

Polygone bleiben uns noch eine Weile erhalten, weil es eine gute Hardware-Unterstützung gibt und soviele Ressourcen schon mit Polygonen erstellt worden sind und fast alle Studios eine stehende Content-Pipeline für Polygone haben, einfaches switchen, selbst wenn es große Vorteile gibt, ist nicht möglich.
Dreams und Claybook verwenden aber nicht direkt Polygone, sondern Signed Distance Fields, womit man ein automatisch skalierbares Level-of-Detail System bekommt, ohne extra Zwischenstufen selber erstellen zu müssen.
Voxel verwenden auch ein paar Indie-Games in einem kleinem Rahmen.
Mit der PS5 sehen wir vielleicht auch mehr alternative Gehversuche, wenn es ausreichend viel Speicher gibt und die Programmierung effizient von der GPU-Seite erfolgen kann.

Wie sieht das dann eigentlich in Zukunft aus?
[...]
Sollte AMD in Zukunft auch dedizierte RT-Einheiten verbauen, müssten Entwickler dann immer 2 Pfade pflegen?
Da es mit RTX bereits eine Vendor gebundene Middleware gibt, seh ich es kritisch, wie da in Zukunft eine vernünftige Standardisierung entstehen soll.
Oder ist das alles gar nicht so kompliziert, da es eine Standard API gibt, die Software also einfach Berechnungen losschickt und die Hardware gucken muss, wie sie damit klar kommt?
In gewisser weise muss man hier wohl mit einem jaein antworten.
Laut DICE würde der aktuelle Raytracing-Pfad nicht automatisch bei AMD laufen, wenn AMD DXR unterstützen würde, weil ein paar spezifische Funktionen zum Einsatz kommen und man nach optimiernen müsste:
“We only really talk with DXR,” DICE’s Technical Director, Christian Holmquist told me this week, “but because we have been running with Nvidia hardware we know that we have optimised for that hardware.”
“We also use certain features in the compiler with intrinsics, so there is a dependency,” he says, “but that can be resolved when we get hardware from a potential other manufacturer.”
Battlefield 5’s ray tracing build isn’t necessarily limited to Nvidia’s RTX cards | PCGamesN

DXR ist ein gemeinsamer Standard, aber ein paar extra Schalter könnten nötig sein, im Prinzip ist das auch kein Problem, wenn es sich in Grenzen hält.
Schon jetzt gibt es mehrere unterschiedliche Pfade pro Hersteller, bei unterschiedlichen Stellen.
DX11 ist ein gemeinsamer Standard, aber mehrere Spiele verwenden exklusive Herstellerhacks, um zusätzliche Features zu bekommen.
AGS wird im Fall von AMD eingebunden, NvAPI bei Nvidia, ein paar bietet noch Intel an.
Einige Spiele verwenden auch unterschiedliche Shader für AMD oder Nvidia, Doom und Wolfenstein haben jeweils extra optimiert, wo es noch oben drauf exklusive Shader-Intrinsics für AMD gibt.

Ich würde mal denken, dass es in der Zukunft auch nicht großartig anders laufen wird.

Gibts schon vernünftige Benchmarks zu Hitman?
Ich habe mir keine umfangreichen Bechmarks angeschaut, aber ein Video von Digital Foundry.
Ein Ryzen 1700X sucked übelst ab, mit drops unter 50FPS, ein i5 8400 ist viel schneller:
YouTube

Das Spiel braucht DX12 (was es nicht hat) oder allgemeine Optimierungen bei Ryzen, die Performance geht gar nicht.

Aber auch nur wenn AMD mit der DX12 Unterstützung nicht hinterher hinken würde. So wie früher auf nvidia wegen Dx 11.1 herumgehackt wurde könnte man jetzt anbringen das AMD DX12.1 noch immer nicht unterstützt - erstmal egal da sowieso die wenigsten Spiele überhaupt Dx12 nutzen und von denen noch weniger wirklich die vorteile nutzen.
[...]
Bei der RTX 2080 Ti nehmen die RTX-Cores ungefähr halb so viel Fläche wie die normalen CUDA cores - das ist spezialisierte Hardware die die Strahlenberechung sehr effizient abarbeiten kann (Spezialhardware ist oft um den Faktor 10 oder mehr schneller).
Es gibt kein DX12.1, nur DX12 mit vier Feature-Levels.
Nvidia hat zuerst FL12_1 unterstützt, danach Intel mit Gen9 (Skylake) und zum Schluss AMD mit Vega.
Aber FL12_1 schließt nur zwei Features mit ein, Conservative Rasterization Tier 1 und Rasterizer Ordered Views, es gibt daneben noch viel mehr optionale Features.
So sieht es aktuell aus:
dx12-jpg.1019403


Und man weiß ohne die-shots nicht, wie groß ein RT-Core flächenmäßig ausfällt, aber bezogen auf die Gesamtfläche vom Chip würde ich von weniger als 10% ausgehen.
 

Anhänge

  • DX12.jpg
    DX12.jpg
    177,4 KB · Aufrufe: 179
Und da können wir dann bis zur PS6 oder PS7 warten, also Ende der 20er Jahre mit Glück.

Dieser Konsolen-Schrott liefert dann bestenfalls Kepler-#1~2-Performance. Mein Neffe zockt FC5 auf 'ner PS4 in SD und Augenkrebs-Qualität mit 20-30 FPS. Eine GTX 660 packt in 1080p mehr. Seht es endlich ein, Konsoleros, ihr seid von der Realität noch Äonen fern! Hier ist PC Games Hardware! Akquiriert euren Plunder unter euresgleichen auf GamePro!
 
@Locuza: Das ist ja wirklich prekär. Funzt DLSS überhaupt ohne DX12? Wenn Hitman das jetzt noch nicht an Board hat wirds wohl auch wieder düster.
 
Zurück