Raytracing: AMD patentiert eigene Texturprozessor-Technologie

Warum soll es ein richtiger Weg sein? Shader sind zwar flexibel programmierbar aber weit weniger dafür geeignet effizient Funktionen von dedizierten SFUs zu übernehmen.

Was genau mit diesem Textur Prozessor gemeint ist kann ich der News nicht entnehmen.

Und die Demo von Crysis basiert darauf kein Stück, wie auch. Erst braucht es die Hardware und danach die Software dafür.

Ich weiß du willst es falsch verstehen weil es nicht vom heiß geliebten Nvidia kommt, aber der Artikel sagt doch es ist eine Hybrid-Lösung. Du hast in Hardware gegossene Raytracing-Funktionen im Textur Prozessor, damit man die aber nutzen kann müssen die Daten von einem Shader-Programm (Software) vorbereitet und dann den Hardware-Teil ansprechen.
In wie weit das besser oder schlechter ist als Nvidias fixe RT-Cores wird sich zeigen.
 
Yepp,

schauen wir mal grundsätzlich und warten ab, ob und welche RT Technik sich letztlich am Markt durchsetzt.

Soweit ich mal RTX Karten ausprobiert habe ist das eher "nice to have" statt ein "must have", sprich bei Stalker oder so merkt man es, man merkt es aber nicht , wenn man es nicht hat... :)
 
Ich gehe mal soweit zu behaupten, dass sich irgendwann die Wege von AMD und Nvidia in Bezug auf die Rendertechniken wieder kreuzen werden.
Nvidia macht Raytracing jetzt in dedizierten Hardwareblöcken, was sicherlich erstmal performanter laufen wird und mehr zum Anfüttern dient. AMD spart sich das, der hybride Ansatz wird RT dennoch zum endgültigen Durchbruch verhelfen, allein schon wegen der Konsolen.
Und dann, wenn alle Entwickler auf dem Zug sind, kann man sich, in vielen Jahren, langsam von der Rasterisierung verabschieden und die Chipfläche mehr und mehr für Raytracing freimachen (oder was noch besseres, falls es sowas gibt).
 
Warum soll es ein richtiger Weg sein? Shader sind zwar flexibel programmierbar aber weit weniger dafür geeignet effizient Funktionen von dedizierten SFUs zu übernehmen.

Naja, wenn aber beispielsweise bei einer RTX-Grafikkarte kein Raytracing genutzt wird, liegen die RT-Cores brach. Für Raytracing mag es effizient sein, dedizierte Raytracing-Hardware-Einheiten zu nutzen, aber in allen anderen Situationen sind die dann eher wenig effizient. Welche Lösung tendenziell die effizientere ist, muss sich anhand der Marktdurchdringung (im Sinne von AMD auch auf den Konsolen, für die entwickeln sie schließlich GPUs) von Raytracing zeigen. Wenn's demnächst praktisch nur noch Spiele mit Raytracing gibt, sind auch die zusätzlichen RT-Cores sinnvoll, wenn es aber fast gar keine RT-Spiele gäbe, wäre es effizienter, nicht einen großen Teil des Chips als unnötigen Balast herumzuschleppen.

Gruß,
Phil
 
man sollte erstmal abwarten ob sich das überhaupt so durchsetzt wie nvidia sich das wünscht. wird genauso eine geschichte wie physx, nvidia exklusiv am anfang dannach kann der prozessor das ebenfalss berechnen und irgendwann verschwindet es von der bildfläche. das amd das auch anbieten wird sollte klar sein, aber nicht in dem umfang. auch sollte man sich vor augen halten wie viel leistung das aktuell kostet, vllt sollten noch ein paar jahre/generationen weiter vergehen bevor es richtig marktreif ist. fakt ist es ist ein nettes gimmick wie physx auch, mehr aber nicht. wenn ich ein game spiele dann wegen dem gameplay/story aber nicht unbedingt wegen "spiegelungen" auf die man eh nicht mehr achtet wenn man im game ist.
ich bin mir auch sicher das die aktuelle turing gen ohne rtx besser dran gewesen wäre und auch die preise etwas anpassen hätte können.

Du weisst schon, dass Du wahrscheinlich zu 50% Spiele nutzt, die PhysX als Physikbibliothek nutzen?
PhysX ist so gesehen eine Erfolgsgeschichte ohne gleichen, weil inzwischen alle großen Engines (UE, Cryengine und Unity) PhysX als default Bibliothek nutzen.
Deshalb wird es nicht mehr erwähnt, aber hat eine sehr hohe Verbreitung dadurch.

Wenn das mit Raytracing ähnlich läuft, dann ist mir das nur recht.

Das PhysX SDK kommt in über 500 Spielen zum Einsatz und wird von Game-Engines wie Unreal Engine 3 und 4, Unity, AnvilNext, Stingray, Dunia 2 und REDengine verwendet. Besonders die Simulation von Stoffen und Zerstörung von Level-Elementen wurde laut NVIDIA erst durch PhysX möglich. Dazu gehören Batman: Arkham Asylum, Batman: Arkham City, Bioshock Infinite, Borderlands 2, Lords of the Fallen, Monster Hunter Online, Daylight und Witcher 3....

Quelle:
NVIDIA macht PhysX zur Open-Source-Software - Hardwareluxx

Tja- Mit Deinem Beitrag hast Du nun das Gegenteil von dem erreicht, worauf Du eigentlich abgezielt hast ;)
Deshalb ist es immer gut sich vorher zu informieren, bevor man einer Sache oder jemandem an den Karren fahren will.

Dass PhysX gescheitert ist, ist ein weiterer "urban myth", der sich wohl ewig in den Foren halten wird.

Nichts fü ungut,
Zero
 
Zuletzt bearbeitet:
Soweit ich mal RTX Karten ausprobiert habe ist das eher "nice to have" statt ein "must have", sprich bei Stalker oder so merkt man es, man merkt es aber nicht , wenn man es nicht hat... :)

Sagen wir mal so: Wenn es in "beiden" next gen Konsolen drin ist und die Studios es einfach nutzen können, wird aus einem "nice to" ein "must have". Man kann nur gespannt sein. Lustig wäre es doch, wenn AMD bei relase der 5xxx Karten noch kurz sagt: "Ach, ganz vergessen... Raytracing lüppt ganz gut mit der Hardware" und NV ne richtige klatsche bekommt ;)
 
Yepp,

schauen wir mal grundsätzlich und warten ab, ob und welche RT Technik sich letztlich am Markt durchsetzt.

Soweit ich mal RTX Karten ausprobiert habe ist das eher "nice to have" statt ein "must have", sprich bei Stalker oder so merkt man es, man merkt es aber nicht , wenn man es nicht hat... :)

Ich glaube du hast da was nicht ganz verstanden. Übrigens ist es keine Frage OB sich Raytracing gegen Rasterisierung oder schlicht als breit genutze Hybridversion durchsetzt sondern "wann". Das ist auch nicht erst seit Gestern klar sondern seit den Anfängen von CGI.
 
PhysX ist so gesehen eine Erfolgsgeschichte ohne gleichen, weil inzwischen alle großene Engines (UE, Cryengine und Unity) PhysX als default Bibliothek nutzen.
Deshalb wird es nicht mehr erwähnt, aber hat eine sehr hohe Verbreitung dadurch.
Zero

Ich glaube, er meinte GPU-basiertes-Physx. Das, was mal die AGEIA-Karten machten und dann nach dem Aufkauf alle Nvidias in Hardware können. CPU-Physx hingegen ist zum Glück wirklich weit verbreitet.
 
Naja, wenn aber beispielsweise bei einer RTX-Grafikkarte kein Raytracing genutzt wird, liegen die RT-Cores brach. Für Raytracing mag es effizient sein, dedizierte Raytracing-Hardware-Einheiten zu nutzen, aber in allen anderen Situationen sind die dann eher wenig effizient. Welche Lösung tendenziell die effizientere ist, muss sich anhand der Marktdurchdringung (im Sinne von AMD auch auf den Konsolen, für die entwickeln sie schließlich GPUs) von Raytracing zeigen. Wenn's demnächst praktisch nur noch Spiele mit Raytracing gibt, sind auch die zusätzlichen RT-Cores sinnvoll, wenn es aber fast gar keine RT-Spiele gäbe, wäre es effizienter, nicht einen großen Teil des Chips als unnötigen Balast herumzuschleppen.

Gruß,
Phil

Also bei kaum sichtbaren Strukturen spricht man von Ballast mitschleppen, bei 2,5T SUV's dann aber von Freude am Fahren, verrückte Welt...

Diese RT Diskussion Erinnert ein wenig an die Dx Entwicklung, da war es auch immer völlig überflüssig direkt aufs aktuellste zu wechseln.
Aber wo sind wir mittlerweile angekommen, schaut mal ein DX 8 Spiel mit heutigen Augen an...
 
Physx ist für mich einer der größten Reinfälle der letzten Jahre gewesen und das Gegenteil einer Erfolgsgeschichte.

sehe ich auch so. Ich will nicht wissen wo wir heute wären, wenn Agia ein Lizenzmodel umgesetzt hätte anstelle sich von NV kaufen zu lassen. So gabs mal hier und da Physx Häppchen in spielen... mehr aber auch nicht. "Wenn" NV / AMD / Intel sich das ganze als Lizenz .... will ich gar nicht drüber nachdenken.
Heute freut mach sich über bissel Rauch / Qualm und eckige Steinchen die auf dem Boden liegen bleiben mit netten licht Effekten und ein paar Haare die im Wind wehen.
 
Also bei kaum sichtbaren Strukturen spricht man von Ballast mitschleppen, bei 2,5T SUV's dann aber von Freude am Fahren, verrückte Welt...

Diese RT Diskussion Erinnert ein wenig an die Dx Entwicklung, da war es auch immer völlig überflüssig direkt aufs aktuellste zu wechseln.
Aber wo sind wir mittlerweile angekommen, schaut mal ein DX 8 Spiel mit heutigen Augen an...

Ich verstehe deinen Einwand nicht. Was Phil meinte, ist die Flexibilität der Shader. Wenn kein Raytracing berechnet wird, wird der Fixed Function Part einfach nicht genutzt, aber "Standardaufgaben" können dennoch übernommen werden. Das ist doch ziemlich genial.
 
Basiert sie nicht, anstatt ständig dieses langweilige Video zu posten sollte man sich vielleicht mal schlau machen.

Ich dachte, dafür bin ich hier. und da ich es ja nicht wusste, schrieb ich "angenommen..." kommt bloß nicht auf die idee, einem dann auch mal anständig mitzuteilen, wie es tätsächlich ist. also - wenn Du weiterhin nichts beizutragen hast, kannst Du auch gern wieder zurück in dein Buch gehen.
 
Ich weiß du willst es falsch verstehen weil es nicht vom heiß geliebten Nvidia kommt, aber der Artikel sagt doch es ist eine Hybrid-Lösung. Du hast in Hardware gegossene Raytracing-Funktionen im Textur Prozessor, damit man die aber nutzen kann müssen die Daten von einem Shader-Programm (Software) vorbereitet und dann den Hardware-Teil ansprechen.
In wie weit das besser oder schlechter ist als Nvidias fixe RT-Cores wird sich zeigen.
So ist es. Und die große Frage, die über Gedeih oder Verderb entscheidet ist, wieviel Fläche diese Lösung benötigt. Wenn die Textureinheiten kaum aufgeblasen werden und dann noch die Performance stimmt, dann ist das ein richtig smarter Ansatz.

Nvidias größtes Problem ist derzeit die Chipfläche, die für Raytracing drauf geht. Die Turing Architektur selbst ist richtig gut und kann ohne Probleme mit RDNA konkurrieren. Aber wenn 25% deines Chips für ein Feature drauf gehen, das 98% der Spiele nicht nutzen, dann kriegst du Probleme mit der Wirtschaftlichkeit.

Du weisst schon, dass Du wahrscheinlich zu 50% Spiele nutzt, die PhysX als Physikbibliothek nutzen?
PhysX ist so gesehen eine Erfolgsgeschichte ohne gleichen, weil inzwischen alle großen Engines (UE, Cryengine und Unity) PhysX als default Bibliothek nutzen.
Wenn über PhysX im Zusammenhang mit Nvidia Grafikkarten gesprochen wird, dann ist trivial, dass es um GPU-PhysX geht und das ist seit Jahren tot. Man muss bei dem Thema echt nicht jedesmal den Kleinkarrierten spielen, weil sich Leute etwas unpräzise ausdrücken. Jeder weiß was gemeint ist.
 
Es geht um die überdramatisierte Formulierung von Phil. "Einen Großteil des Chips" machen die RT- und Tensor Cores eben nicht aus, basierend auf aktuellen Schätzungen sind es ca. 20% mehr pro Shader-Cluster. Auf den gesamten Chip gesehen, sind das vielleicht 8-9%.

Ne, das hat er eigentlich nicht so gesagt :P
[...]Wenn's demnächst praktisch nur noch Spiele mit Raytracing gibt, sind auch die zusätzlichen RT-Cores sinnvoll, wenn es aber fast gar keine RT-Spiele gäbe, wäre es effizienter, nicht einen großen Teil des Chips als unnötigen Balast herumzuschleppen.
Einen großen Teil (nicht "den Großteil") des Chips nehmen die RT Cores zweifelslos ein. Viel Platz, den man halt sonst mit Shadern zukleistern könnte. 20% mehr Shader und damit potentiell 20% mehr Performance - das wäre doch was, oder?
gRU?; cAPS
 
Jahtari schrieb:
Ich dachte, dafür bin ich hier.
Niemand hier hat einen Bildungsauftrag, du musst dich schon selbst bemühen und dir nicht alles vorkauen lassen.

Jahtari schrieb:
wenn Du weiterhin nichts bezutragen hast, kannst Du auch gern wieder zurück in dein Buch gehen.
Dasselbe könnte ich zu Theoretikern mit Halbwissen ebenfalls sagen. Wann und wie ich an einer Diskussion teilnehme musst du mir überlassen.
 
Zurück