Raytracing: Epic zeigt beeindruckende Unreal-Engine-Techdemo Troll

Voxel RT hat im Bereich GI damit die Chance sich klar gegen RTX durchzusetzen
Voxel muss sich nicht gegen RTX durchsetzen, sondern gegen DXR. Microsoft hat sich da schon klar positioniert.

Voxel-Engines gab es schon vor über 20 Jahren, durchgesetzt hat es sich nie, weil sich die Probleme, die Voxel-Engine bringen, nie haben lösen lassen und diese die Vorteile leider überwiegen.

CryTek hat ja bisher auch nichts handfestes geliefert, die Demo war eher Mäh und da man nicht mal Performance-Daten genannt hat, kann man davon ausgehen, dass man da weit entfernt von RealTime ist.
 
Voxel muss sich nicht gegen RTX durchsetzen, sondern gegen DXR. Microsoft hat sich da schon klar positioniert.

Voxel-Engines gab es schon vor über 20 Jahren, durchgesetzt hat es sich nie, weil sich die Probleme, die Voxel-Engine bringen, nie haben lösen lassen und diese die Vorteile leider überwiegen.

CryTek hat ja bisher auch nichts handfestes geliefert, die Demo war eher Mäh und da man nicht mal Performance-Daten genannt hat, kann man davon ausgehen, dass man da weit entfernt von RealTime ist.

Weil jedes Traversing Quadtrees Knotenpunkte benötigt und deren binäre Baumstructur durchläuft? Ich hatte dich auch gemeint mit dem wirren Zeug...

Ob der Knoten Code über ein Quanttrees oder Octress generiert wird, ist dabei völlig belanglos - wobei auch die CPU Zuordnungen übernehmen kann. CPU Raytracing ist 30 Jahre alt. Genau das schliesst man aus.
 
Weil jedes Traversing Quadtrees Knotenpunkte benötigt und deren binäre Baumstructur durchläuft? Ich hatte dich auch gemeint mit dem wirren Zeug...
Wirres Zeug kommt wie üblich nur von dir, weil du den aktuell laufenden Prozess nicht verstehst.

wobei auch die CPU Zuordnungen übernehmen kann. CPU Raytracing ist 30 Jahre alt.
Ja, CPU Raytracing war ja auch immer so performant und Echtzeit seit 30 Jahren :lol:

Du verstehst halt nicht, dass NVIDIA mit Turing die Richtung für Raytracing/DXR bestimmt hat. Klar kann man Raytracing anders implementieren, als dies mit den RT-Cores geschehen ist. Dies wird aber schlicht niemand mehr machen, weil man mit einer anderen Implementierung die Vorteile der HW-Beschleunigung nicht mehr hat. NVIDIA hat in den letzten Monaten hier den Markt aufgebaut und wird ihn auch noch in den nächsten Jahren ausbauen. Implementierungen der anderen IHVs werden dem Folgen.

Da darfst dich jetzt gern wieder in albernen und peinlichen Verschwörungstheorien über das böse NVIDIA retten, aber so läuft das nun mal :daumen:
 
Voxel RT hat im Bereich GI damit die Chance sich klar gegen RTX durchzusetzen, weil es weniger Renderzeit kostet und auf jeder Hardware halbwegs lauffähig ist.

Was heißt da RTX? Da geht um DXR.
Dir geht's im Kern darum alles wo Nvidia dransteht schlechtzureden und dann Mist/Unsinn vom Stapel zu lassen und wenn jemand einen Einwand hat, dann ist er nicht qualifiziert genug.
Anstatt Quellen zu posten soll man jetzt dir als AMD Sympathisanten abkaufen, dass Voxel RT im Bereich GI (woanders nicht?) angeblich eine Chance hätte sich durchzusetzen....
Ich verrate dir wie es laufen wird. DXR mit der bisherigen Umsetzung von MS, AMD und Nvidia wird sich durchsetzen. Voxel werden nicht mal ein Randthema sein und wo es weniger Renderzeit kostet, muss man erst einmal belegen, ich sehe da aktuell nichts davon.
 
Was heißt da RTX? Da geht um DXR.
Dir geht's im Kern darum alles wo Nvidia dransteht schlechtzureden und dann Mist/Unsinn vom Stapel zu lassen und wenn jemand einen Einwand hat, dann ist er nicht qualifiziert genug.
Anstatt Quellen zu posten soll man jetzt dir als AMD Sympathisanten abkaufen, dass Voxel RT im Bereich GI (woanders nicht?) angeblich eine Chance hätte sich durchzusetzen....
Ich verrate dir wie es laufen wird. DXR mit der bisherigen Umsetzung von MS, AMD und Nvidia wird sich durchsetzen. Voxel werden nicht mal ein Randthema sein und wo es weniger Renderzeit kostet, muss man erst einmal belegen, ich sehe da aktuell nichts davon.

AMD Sympathisant?

Hast du überhaupt verstanden was ich geschrieben habe, vermutlich nicht. Voxel Gitter sind als RGB Vectoring Tensorfelder erster Ordnung. Das heisst Octreebinärbäume passen zu Tensor wie nichts anderes.

Es geht hier um nichts weiteres als Ausschluss und dem Nichtzulassen andererer Renderingtechniken in der Raumindizierung, was stark an PhysX und GSync erinnert. Octree erfüllt auch die Anforderungen an eine 3DSequenz.

Mir was nicht glauben, wenn man selbst nur St*ss von sich gibt? Ihr seid doch....hier. DXR ist nichts weiter als eine Sammlung an DLLs inklusive Bibliotheken, RTX ist das Backend das nVidiakonform darauf aufsetzt. Microsoft erlaubt die Implementierung eigner Entwicklungen, denn das passt zum "Baukastensystem" von DX12. Man muss nur deren Vorgaben erfüllen. Warum sollte Microsoft daher gegen SVORT sein. Das ist völliger Quatsch, den ihr euch aus der Nase zieht.

Was nutzt einem ein Quanttrees, wenn man später mit einem Filter die Raymenge der einzelnen Pixel wieder reduziert. Was soll dieser Quatsch. Um RTX irgendwie funktional zu bekommen? Das soll doch alles so einfach gehen! Wozu dann eine aufwendige Schnittmengentraversierung über die RT Cores, wobei man weit verzweigte BVH Structuren durchlaufen muss, damit Zeit verschwendet und zusätzlich die Strahlenlänge beschneiden muss. Ehrlich, das ist Murks vom Feinsten, da muss man kein AMD Sympathisant sein.

Ich verrate dir auch was, dass Ganze wird ein Rohrkrepierer, wenn nVidia seinen Strategieansatz nicht grundlegend ändert, teure Briefbeschwerer inklusive.
 
Zuletzt bearbeitet:
Das ist völliger Quatsch, den ihr euch aus der Nase zieht.
Der Einzige, der sich aktuell was aus Nase zieht, dass Quatsch ist, bist du.

Während die DXR-Implementierung ala RTX immer weiter verbreitet, gibt es für dein Voxel-Zeug nur das Video einer Techdemo. *slowclap*

Wenn man die HW-Beschleunigung durch die RT-Cores haben kann, ergibt es für den Entwickler null Sinn, auf einen anderen Codepfad zu gehen, der nur auf der CPU läuft. Das war schon der Todesstoß für CPU-TnL, als es TnL in HW auf der GPU gab.

Wir können uns auch gern in zwei Jahren noch mal sprechen, um dann mal RT vs. Voxel Implementierungen auf dem Markt zu zählen. Aber bis dahin hast du ja sicher wieder den nächsten Account.
 
Wenn man die HW-Beschleunigung durch die RT-Cores haben kann, ergibt es für den Entwickler null Sinn, auf einen anderen Codepfad zu gehen, der nur auf der CPU läuft. Das war schon der Todesstoß für CPU-TnL, als es TnL in HW auf der GPU gab.

Wir können uns auch gern in zwei Jahren noch mal sprechen, um dann mal RT vs. Voxel Implementierungen auf dem Markt zu zählen. Aber bis dahin hast du ja sicher wieder den nächsten Account.
Octree ist Hardware beschleunigt, weil das in der Medizin seit Jahrezehnten schon genutzt wird. In Echtzeit...!

So wie du und deine zig Accounts?

Gedankenlücke? Volta hat keine RT Cores! Huang verlor darüber kein Wort, Volta bleibt in bekannter Iteration. Könnte also auch keine hardwarebeschleunigte Realtimedarstellung unterstützen.

Irgendwie fühlst du dich bei jedem meiner Post angesprochen, beantwortest keinerlei zielgerichtete Fragen, forderst ständig Informationen die dir nicht zur Verfügung stehen, bist aber gerne dabei andere als Lügner hinzustellen und das zig mal zu wiederholen. Für Marketingparolen gibt es andere Foren.

Bitte mal den Link das Microsoft mit DXR SVORT nicht unterstützt und es auch nicht will!
 
Es geht hier um nichts weiteres als Ausschluss und dem Nichtzulassen andererer Renderingtechniken…


Wer lässt hier irgendetwas nicht zu? Belege?

Mir was nicht glauben....


Warum sollte man dir irgendetwas glauben, wenn deine Posts aus 50% VT Geseier bestehen und die anderen 50% dann aus Fachchinesisch, damit du deine Behauptungen nicht belegen musst und behaupten kannst, ihr versteht mich nicht.:ugly:
Ich kann auch mit Begriffen um mich werfen, nur haben die thematisch nichts von dem zu tun was du behauptest. Kontext heißt das Zauberwort.
Du behauptest Voxel RT im Bereich GI sei wesentlich leistungsschonender als die DXR Umsetzung, vor allem ja weil die derzeitige Implementierung von Crytek bei Kameraschwenks und Szenenwechseln so flott ist.:schief:
Wenn man sich die aktuelle Doku ansieht gibt es eine ganze Hand voller Problemfälle, die erst einmal gelöst werden müssen und dann kann man sehen ob das was taugt.
Crytek gab sich ja bei der GDC ziemlich zugeknöpft, also wie willst du da irgendetwas ableiten.

Der DXR Ansatz setzt bisher auf BVH Traversierung und Raymarching, der Voxel Ansatz tut das nicht. Zu behaupten der sei effizienter als der bisherige DXR Ansatz inkl RT-Core Beschleunigung benötigt Quellen.
Ansonsten glaube ich dir mal gar nichts.


Warum sollte Microsoft daher gegen SVO-RT sein. Das ist völliger Quatsch, den ihr euch aus der Nase zieht.

Na, warum wohl, weil SVO-RT zu fehleranfällig ist und man eine saubere Lösung will, ansonsten will ich aber auch mal sehen wer das überhaupt behauptet hat.
Aber prinzipiell kann das auch innerhalb von DXR umgesetzt werden, wird es aber nicht, da AMD und Nvidia das gemeinsam entwickelt haben inkl MS.
AMD hat bisher kein Wort zur Crytek Demo verloren, nicht mal auf der GCD, dabei existiert dieser Ansatz schon seit 2014 in der Cryengine.

Nein, dein dolles SVO-RT oder Voxel RT wird sich nicht durchsetzen.

Wozu dann eine aufwendige Schnittmengentraversierung über die RT Cores, wobei man weit verzweigte BVH Structuren durchlaufen muss, damit Zeit verschwendet und zusätzlich die Strahlenlänge beschneiden muss.

Ja, passt zu deiner Falschbehauptung die Schnittmengentraversierung würde über die RT Cores ja eigentlich gar nicht beschleunigt werden und nur 10 bis 20% bringen, wenn das in Wirklichkeit je nach Strahlenmenge bis zu 4 oder gar 8x schneller sein kann und in Metro 2,5 fache Leistung einer 2080 gegenüber der 1080 Ti bringt.:schief:
Selbst in Battlefield 4 war der RTX Pfad teilweise doppelt so schnell als der Cuda Pfad der Titan V, bestimmt auch absoluter Zufall, denn in Wirklichkeit existieren die RT Cores ja gar nicht und sind völlig unnütz.
Sobald die Shading-Power/Compute-Power der nächsten Generation 50 bis 100% erhöht wird, wird man die RT Cores noch effizienter nutzen können, denn dann kann man auch die Strahlenmenge erhöhen und schon wird die komplette Berechnung ähnlich dem der Nvidia-Demo beschleunigt.
AMD arbeitet übrigens an einer ähnlichen Umsetzung und wird auch DXR unterstützen, da ist für Cryteks fehleranfälligen Ansatz eigentlich kaum Platz, der fristet ja schon seit 2014 oder gar 2012 sein Dasein.


 
Zuletzt bearbeitet:
Läuft nicht nur auf der CPU.
Solltest du mit olletsag klären. Der will das so haben.

Octree ist Hardware beschleunigt, weil das in der Medizin seit Jahrezehnten schon genutzt wird. In Echtzeit...!
Dann nenn doch mal eine aktuelle Implementierung in einer Gameengine mit Raytracing. HW-beschleunigt natürlich.

So wie du und deine zig Accounts?
Im Gegensatz zu dir, habe ich hier nur Einen ;-)

Gedankenlücke? Volta hat keine RT Cores! Huang verlor darüber kein Wort, Volta bleibt in bekannter Iteration. Könnte also auch keine hardwarebeschleunigte Realtimedarstellung unterstützen.
Volta ist auch kein Chip für Gaming/Grafik, sondern für HPC. Da wird es die Kunden also gar nicht jucken, ob DXR drauf läuft oder nicht. Wird bei den Käufern von Gamer-Grafikkarten anders aussehen. Da gibt es ja einen IHV, der immer noch kein HW-Support (ja nicht mal Software-Fallback) für DXR anbietet, selbst bei den HighEnd-Karten. Wahrscheinlich auch erst in ein paar Jahren. Da würde ich eher Angst haben, dass die teure Grafikkarte plötzlich nur noch als Briefbeschwerer taugt.

Bitte mal den Link das Microsoft mit DXR SVORT nicht unterstützt und es auch nicht will!
Warum sollte man dir einen Link für deinen Strohmann liefern? Niemand hat das hier behauptet :lol:
 
Wer lässt hier irgendetwas nicht zu? Belege?

[/FONT]

Warum sollte man dir irgendetwas glauben, wenn deine Posts aus 50% VT Geseier bestehen und die anderen 50% dann aus Fachchinesisch, damit du deine Behauptungen nicht belegen musst und behaupten kannst, ihr versteht mich nicht.:ugly:
Ich kann auch mit Begriffen um mich werfen, nur haben die thematisch nichts von dem zu tun was du behauptest. Kontext heißt das Zauberwort.
Du behauptest Voxel RT im Bereich GI sei wesentlich leistungsschonender als die DXR Umsetzung, vor allem ja weil die derzeitige Implementierung von Crytek bei Kameraschwenks und Szenenwechseln so flott ist.:schief:
Wenn man sich die aktuelle Doku ansieht gibt es eine ganze Hand voller Problemfälle, die erst einmal gelöst werden müssen und dann kann man sehen ob das was taugt.
Crytek gab sich ja bei der GDC ziemlich zugeknöpft, also wie willst du da irgendetwas ableiten.

Der DXR Ansatz setzt bisher auf BVH Traversierung und Raymarching, der Voxel Ansatz tut das nicht. Zu behaupten der sei effizienter als der bisherige DXR Ansatz inkl RT-Core Beschleunigung benötigt Quellen.
Ansonsten glaube ich dir mal gar nichts.




Na, warum wohl, weil SVO-RT zu fehleranfällig ist und man eine saubere Lösung will.
Aber prinzipiell kann das auch innerhalb von DXR umgesetzt werden, wird es aber nicht, da AMD und Nvidia das gemeinsam entwickelt haben.
AMD hat bisher kein Wort zur Crytek Demo verloren.
[/LEFT]
Es ist nicht leistungsschonender, sondern schneller!

Fachchinesisch? Du tust doch so als wüsstest du alles und wiederlegst ständig fachchinesiche Aussagen als falsch. Dabei kommt ihr beide mit Marketinggeblubber von Feinstem.

Warum sollte AMD was dazu verlieren und was hat das mit AMD zu tun? Das läuft genauso schnell auf nVidia Hardeware ohne RT Cores, denn das Bild wird schlussendlich immer durch Shader berechnet. Ob RTX RT Cores oder SVO egal. Es geht lediglich um das Raytraversing, dass bei einem Octree basierenden Voxelgitter mit feststehenden Punkten wesentlich einfacher ausfallen kann. Das lesen und die Suche in tieferen Hierarchien muss nicht stattfinden und braucht daher weniger Zeit, auch ein Waveletfiltering muss nachträglich nicht stattfinden. Damit braucht es auch keine niedrige Renderingauflösung um diese Effekte aufgrund der berechenbaren Raymenge versus Pixelmenge zu kaschieren.

Das würde in der bildgebenden Medizien auch im krassen Gegensatz zu dem gewollten Ergebnis stehen. Da ist z. Bsp. hohe Auflösung alles!
 
Zuletzt bearbeitet:
Es ist nicht leistungsschonender, sondern schneller!


Und den Beleg dafür findet man wo? Aktuell ist da gar nichts schneller, sondern es gibt eine vorberechnete Demo die dann in "Echtzeit" angeblich auf der Vega 56 läuft.
Kann man sich bisher auch nicht downloaden, also woher nimmst du dein Wissen? Quelle?

Jup, jeder Forderung nach einer Quelle entgegnest du mit billiger Polemik.
Scheinbar sind wir dir nicht würdig - olletsag.:schief:

Warum sollte AMD was dazu verlieren nd was hat das mit AMD zu tun?

Das hat insofern etwas mit AMD zu tun, weil du der DXR Erweiterung vorwirfst parteiisch zu sein, sowie im Grunde proprietär und nur Nvidias Ding ist und daher generell abzulehnen.
Und ich kann es halt nicht verstehen, wie man behaupten kann der Voxel Ansatz würde auf den Grafikkarten schneller laufen, als Microsofts DXR, ohne das bisher auch nur annähernd in frei verfügbarer Software testen zu können.
Gerade dann wenn die dynamische Komponenten hinzukommen. Es gibt jetzt eine frühe Alpha-Demo und du behauptest das sei generell besser/schneller, nur sehe ich dafür überhaupt keine Basis, sondern nur Schnellschussbehauptungen eines Fans.
 
Zuletzt bearbeitet:
Und den Beleg dafür findet man wo? Aktuell ist da gar nichts schneller, sondern es gibt eine vorberechnete Demo die dann in "Echtzeit" angeblich auf der Vega 56 läuft.
Kann man sich bisher auch nicht downloaden, also woher nimmst du dein Wissen? Quelle?

Jup, jeder Forderung nach einer Quelle entgegnest du mit billiger Polemik.
Scheinbar sind wir dir nicht würdig - olletsag.:schief:


Das hat insofern etwas mit AMD zu tun, weil du der DXR Erweiterung vorwirfst parteiisch zu sein, sowie im Grunde proprietär und nur Nvidias Ding ist und daher generell abzulehnen.
Und ich kann es halt nicht verstehen, wie man behaupten kann der Voxel Ansatz würde auf den Grafikkarten schneller laufen, als Microsofts DXR, ohne das bisher auch nur annähernd in frei verfügbarer Software testen zu können.
Gerade dann wenn die dynamische Komponenten hinzukommen. Es gibt jetzt eine frühe Alpha-Demo und du behauptest das sei generell besser/schneller, nur sehe ich dafür überhaupt keine Basis, sondern nur Schnellschussbehauptungen eines Fans.
Es gibt keine DXR Erweiterung, was soll das sein?

Es gibt DX12 DXR und Gameworks RTX SDK, mit dem eigenen Treiber-, Software- und Hardwarebackend. Dazu noch eigne APIs wie NGX. DXR selbst braucht die KI und RT Cores nicht. Es braucht Shadertypen, sonst würde das auf Pascal und ab April mit einem Treiberupdate nicht lauffähig sein.

Ich brauche also gar nichts liefern, weil das nVidia selbst längst angekündigt hat.
 
Zuletzt bearbeitet:
Es gibt keine DXR Erweiterung, was soll das sein?
DXR ist eine Erweiterung von DX12.

DXR selbst braucht die KI und RT Cores nicht.
Theoretisch nicht, praktisch müssen aber Funktionen in FixedFunction implementiert sein, um eine ausreichende Performance (=RealTime) liefern zu können.

Selbst die aktuellen Kinderschritte von DXR in den ersten Implementierungen sind ohne Hardware-Beschleunigung viel zu langsam.

Wie groß ein Pascal-Chip, ohne RT-/Trensor-Cores für die Performance eines TU104 auf der RTX2080 hätte sein müssen, hat NVIDIA ja schon mal grob berechnet:
http://www.pcgameshardware.de/Nvidi...hne-RT-Kerne-Monster-Pascal-GDC-2019-1277771/

Was daran ist vorberechnet?
Bisher gab es nur ein Video, keine echte Demo. Noch dazu keine Angaben über die Framerate. Theoretisch kann das Video auch bei 0,001fps gerendert worden sein.
 
Leute Leute immer diese Schwarz und weiß Diskussion. Das ist besser nein das ist besser... beweise hier beweise da.

Last uns froh und Munter sein, und uns Recht von Herzen freuen.-
Soll es doch für Jeden sein, was dort kommt für Spielerein!
Nicht nur für den Nvidia Freund, sondern auch den, der von AMD gern träumt
 
Zurück