Raytracing: AMD patentiert eigene Texturprozessor-Technologie

PhysX war ein rein grafisches Gimmick ohne jeden spielerischen Mehrwert.

Der spielerische Mehrwert war durch die Effekte enorm und PHYSX-GPU fanden alle richtig nice, zumindest die NV-user.
Schau dir mal das Video zu Alice zb. mal an ! Findest du das dieses Spiel ohne diese grandiosen effekte spielbar ist ? Ich nicht !

Einmal gesehen und ohne gehts dann einfach nicht mehr, wie ein anderes Spiel.
...wirkt wie eine sehr frühe Alpha ohne PhysX, pfui.

YouTube

Das waren die mit abstand beeindruckendsten effekte der vergangen jahre. ;)
 
Es ist natürlich schwer zu sagen wie hoch der Leistungszuwach im Rendering nun genau ist, da es stark auf die zu rendernde Szene ankommt. Wird prozentual ein hoher Anteil der Rechenzeit ins Raytracing investiert dann ist auch der Zuwachs durch die RT Cores entsprechend groß. Wenn es aber eine extrem Shader intensive Szene ist, dann bringen die RT Cores natürlich kaum was da sie nur beim Raytracing helfen. Durchschnittlich kann man so mit 20-40% Ersparniss bei der Renderzeit rechnen durch 10% mehr Chipfläche. Klingt für mich nach einem guten Deal.

Eine Aussage so ganz ohne irgentwelche Daten stehen zu lassen lies mir keine Ruhe, deshalb habe ich doch nochmal nach ein paar Ergebnisses gesucht um meine Aussage zu belegen.

Leider kann man ohne Account im RS Forum nichts sehen, daher poste ich die Links und kopiere die Daten zusätzlich. Der Übersicht halber packe ich das mal lieber in einen Spoiler.


Error | Redshift

3.0.01 RTX OFF: 6:07
3.0.01 RTX ON: 5:31

3.0.01 RTX OFF: 3:44
3.0.01 RTX ON: 3:26

=====================================

Error | Redshift


Example 1: Example scene where RTX really takes advantage of the scene. Really simple shading and just a lot of instances of a single object. It obviously has no issue tearing through this and scales beautifully. No depth of field, no volumes, etc.

Resolution: 3840 x 2160 UHD
Total triangles: 50,602,962
RTX ON - Rendering time: 3m:2s (1 GPU(s) used
RTX OFF - Rendering time: 6m:18s (1 GPU(s) used
RTX ON = 108% Faster

2x 2080ti
RTX ON = Rendering time: 1m:35s (2 GPU(s) used
RTX OFF = Rendering time: 3m:7s (2 GPU(s) used
RTX ON = 97% Faster


Example 2: This time we have a scene with mass scattering and volumetric fog/scattering. In this example RTX still scales very well albiet not as much but still performs excelently compared to CUDA only.

Resolution: 3840 x 1607 Anamorphic UHD
Total triangles: 93,741,172,946
RTX ON - Rendering time: 1m:46s (1 GPU(s) used
RTX OFF - Rendering time: 3m:5s (1 GPU(s) used
RTX ON = 74% Faster

2x 2080ti
RTX ON = Rendering time: 1m:20s (2 GPU(s) used
RTX OFF = Rendering time: 1m:36s (2 GPU(s) used
Dual RTX = 20% Faster


Example 3: This scene has a decent amount of 4k different texture maps for all the different Megascan assets with a variety of shader properties, it also has some pretty heavy DOF. So this is a scene that RTX generally wouldn’t accelerate too much. Even then the results are still surprisingly good.

Resolution: 2048 x 857 Anamorphic
Total triangles: 96,910,342
RTX ON - Rendering time: 49.4s (1 GPU(s) used
RTX OFF - Rendering time: 1m:10s (1 GPU(s) used
RTX ON = 43% Faster

2x 2080ti
RTX ON = Rendering time: 29s (2 GPU(s) used
RTX OFF = Rendering time: 59s (2 GPU(s) used
RTX ON = 103% Faster


Example 4: In this final example we have a scene that has several instances but most of the geometry (leaves) consist of the sprite shader which can’t be accelerated by the RT cores. Even in this example though there are still a lot of regular pieces of geometry which can be accelerated like the branches on the trees. I also pushed the unified sampler pretty high to clean up the DOF as much as possible. Even though the sprite node doesn’t get accelerated by RT cores, all the geometry and DOF ray-tracing does, so it still provides a great boost in performance.

Resolution: 1920 x 803 HD Anamorphic
Total triangles: 480,250,028
RTX ON = Rendering time: 12m:16s (1 GPU(s) used
RTX OFF = Rendering time: 15m:54s (1 GPU(s) used
RTX ON = 30% Faster

2x 2080ti
RTX ON = Rendering time: 6m:15s (2 GPU(s) used
RTX OFF = Rendering time: 7m:59s (2 GPU(s) used
RTX ON = 28% Faster

Wie man sieht schwankt der Performancezuwachs extrem je nach Szene. Ergebnisse über 40-50% sind jedoch für die meisten Anwender wenig realitätsnah und haben nicht viel mit dem Alltag in den meisten Produktionen zu tun, Ausnahmen mal außen vor gelassen. Trotzdem auf jeden Fall die 10% Chipfläche wert.
Da die meisten Entwickler wohl sowieso weiterhin nur auf Nvidia Karten hin entwicklen werden, wäre es für AMD m. M. n. gut ihre Lösung der Kompatibilität wegen so änhlich wie möglich zu halten. AMD sollte mit ihrem Marktanteil nicht erwarten von den Entwicklern irgentwelche extra Würste zu bekommen.

lg
 
Zuletzt bearbeitet von einem Moderator:
Der spielerische Mehrwert war durch die Effekte enorm und PHYSX-GPU fanden alle richtig nice, zumindest die NV-user.
Nochmal, es gab keinen spielerischen Mehrwert.
Es war ein rein grafischer Effekt, der auf's Gameplay keinen Einfluss hatte.
Hal-Life 2, und Crysis sind mMn bis heute die besten Beispiele, wie man Physik aktiv ins Spiel einbinden kann. Auch BioShock bekam das gut hin. Und die nutzten alle die CPU.
Die meisten GPU/PPU-PhysX-Spiele nutzten die Middleware nur, um die Grafik aufzuwerten, mal mehr, mal weniger gut.
Die einzigen, die das "nice" fanden, waren High-End-GeForce-User. Nicht NV-User i.A., die hatten nämlich ohne entsprechend leistungsfähiges Modell ggf. noch mit Extra-Karte für um den ganzen Kram überhaupt flüssig berechnen zu können, auch keinen Spaß daran.^^

Allgemein fand' ich ganz schön erschreckend, wie ineffizent das ganze damals war. Meine alte Ageia-Karte performte in Spielen, mit sowohl PPU als auch GPU-Unterstützung für PhysX durchgehend auf bzw. sogar knapp über dem Niveau einer GeForce 8800 GT, die igentlich die drei bis fünfmal so hohe Rechenleistung hatte.

Schau dir mal das Video zu Alice zb. mal an ! Findest du das dieses Spiel ohne diese grandiosen effekte spielbar ist ? Ich nicht !
Mal abgesehen davon, dass es auch damals schon Spiele gab, welche die besseren Partikeleffekte darstellen konnten (ohne PhysX!), wieso sollte das Spiel ohne PhysX nicht spielbar sein?
Ich hab's damals ohne PhysX gespielt, wüsste nicht, das ich dadurch einen Nachteil gehabt hätte - ist ja auch nur ein rein grafischer Effekt gewesen, nicht mehr, nicht weniger, für's Gameplay völlig unnötig.;)

Einmal gesehen und ohne gehts dann einfach nicht mehr, wie ein anderes Spiel.
Ohne PhysX wirkt das Spiel wie ne frühe Alpha.
Auf Texturen, Schatten, Beleuchtung usw. hatte PhysX keinen Einfluss. Also ganz schön übertrieben.^^
Das waren die mit abstand beeindruckendsten effekte der vergangen jahre. ;)
Echt?
Das bekamen Warmonger und Cellfactor 2007 auch schon hin.:nicken:
 
Der spielerische Mehrwert war durch die Effekte enorm und PHYSX-GPU fanden alle richtig nice, zumindest die NV-user.
Schau dir mal das Video zu Alice zb. mal an ! Findest du das dieses Spiel ohne diese grandiosen effekte spielbar ist ? Ich nicht !
Einmal gesehen und ohne gehts dann einfach nicht mehr, wie ein anderes Spiel.
...wirkt wie eine sehr frühe Alpha ohne PhysX, pfui.

Ich hätte lieber eine vernünftige Physik in Spielen statt der zusätzlichen Partikeleffekte.
Den Kram hätte man eher EffektX nennen sollen.
Mit dem ursprünglichen PhysX hätten Entwickler soviel machen können aber Nvidia hat es lieber für mehr sinnlose Effekte verschwendet.
 
Also, wenn es keine neuen Infos gibt, dann benötigt NVIDIA 22% für die Raytracing Implementation. Jedenfalls laut PCGH vom 09.04.2019

Zum Thema Hybrid und warum das bei AMD so genannt wird, also, ein Unterschied der mir aufgefallen ist, ist der Verzicht auf extra cache. Die Daten werden in die vorhandenen Speicher eingelesen und dort wird wohl Platz sein, wenn man auf normale Beleuchtung verzichtet.

Für mich hört sich das alles ziemlich vielversprechend an. Ich bin gespannt.
Crytek hat ja schon gezeigt, dass auch alte AMD-Hardware dazu Inder Lage ist.

Grüße
 
Spielerischer Mehrwert, bedeutet in diesem Fall klar, dass die Effekte neue Interaktionsmöglichkeiten liefern, was sie nun (klar?) nicht tun.
Du vermischt hier Spielspaß mit Spielinteraktion,
 
Hoffentlich baut sich AMD da nicht ein ähnliches Bottleneck in die Renderpipeline ein wie bei den FX Prozessoren(halbherzige 8 Kerner). Das geht dann wieder jahrelang nach hinten los.

FX, dachte zunächst an NV's scheiss Grakka des Jahrhunderts.
Muss es wissen, durfte mal eine 5700FX nutze.
Zweifelhafte Ehre, da haben die beiden was gemeinsam
;-)
 
Wer keine Fakten verträgt der lügt halt dann. BL2 hatte von eine sehr buggy Version von PhysX, aber läuft auch mi PhysX max auf ner 1050Ti gut.

Du kaufst dir eine 1050Ti??
Das ist mit Abstand einer der grössten PCB Verschwendungen seit deren Release.
Betreff Borderland2 haben damals Benches gezeigt, dass zum Teil eine Performante Grakka alleine besser drann war.

Aber was weiss ich schon, ich lüge weiss ja jetzt jeder
 
FX, dachte zunächst an NV's scheiss Grakka des Jahrhunderts.
Muss es wissen, durfte mal eine 5700FX nutze.
Zweifelhafte Ehre, da haben die beiden was gemeinsam
;-)

Nun ja, ich habe jahrelang auf nem AMD FX8320 gezockt. So schlimm war das gar nicht. Ab der GTX1080 bremst jedoch die CPU spürbar. Auf dem R7 1700 wirde sie immer zu 98% ausgelastet, jetzt im FX8320 Rechner häufig nur zu 75%.
 
Seit wann sind 10% der Chipfläche ein großer Teil? Halte ich vom Begriff her für nicht zutreffend. Ein kleiner Teil passt da viel besser.

Nochmal für die Querleser: Während das durchaus Ansichtssache ist, was ich auch nie bestritten habe, aber danke, dass Du mich zitierst, welch Ehr', ging es darum, dass ein GROSSER TEIL eben nicht mit dem GROSSTEIL gleichzusetzen ist. Das sind zwei sehr verschiedene Mengen/Größen.

Jetzt sogar in Versalien, d.h. GROSSbuchstaben, vielleicht hilft das ja.
 
Zuletzt bearbeitet:
Ich finde es voll ok so viel wie auch immer an Chipfläche dafür herzugeben. Aber wenn Sie dann doch merken dass sogar Ihre sch...s Ti zu lahm dafür ist... sorry die Spiele nutzen ja alle nur ein bisschen Rt und dann ist da noch ein drittel Frames übrig, was soll der Quatsch?

Frage mich auch langsam was dieser Mist soll, Falschinfos zu verbreiten.

1/3der Frames ist das schon lange nicht mehr.
Ihre Technik ist momentan Schrott und die User sollen die Entwicklungsarbeit leisten!

Wenn in der Welt jeder nur noch davon sprechen würde wovon er Ahnung hat, wäre es plötzlich ganz still.
Wieso liest du dich nicht nur ein wenig ins Thema ein, damit man nicht völlig unbewaffnet ist?
Nochmal für die Querleser: Während das durchaus Ansichtssache ist,

Das ist keine Ansichtssache, sondern wird in dem Falle nur von Nvidia Gegnern geliked, die dann die Bedeutung des Wortes neu definieren.

Ein Großteil der Wähler sind mehr als 50%, ein kleiner Teil der Wähler 8 bis 9%.
Zudem sind auch noch Tensor Cores und Verdrahtungslogik enthalten, sowie größere Caches und deutlich mehr Logik. Dafür sind unter 10% sehr wenig und nicht ein grosser Teil.
 
Zuletzt bearbeitet:
Frage mich auch langsam was dieser Mist soll, Falschinfos zu verbreiten.

1/3der Frames ist das schon lange nicht mehr.


Wenn in der Welt jeder nur noch davon sprechen würde wovon er Ahnung hat, wäre es plötzlich ganz still.
Wieso liest du dich nicht nur ein wenig ins Thema ein, damit man nicht völlig unbewaffnet ist?


Das ist keine Ansichtssache, sondern wird in dem Falle nur von Nvidia Gegnern geliked, die dann die Bedeutung des Wortes neu definieren.

Ein Großteil der Wähler sind mehr als 50%, ein kleiner Teil der Wähler 8 bis 9%.
Zudem sind auch noch Tensor Cores und Verdrahtungslogik enthalten, sowie größere Caches und deutlich mehr Logik. Dafür sind unter 10% sehr wenig und nicht ein grosser Teil.

Von Falschinformationen Sprechen und selbst steil an 10% festhalten. Sowas hab ich früher immer bei Schaffe gesehen.
Man kann nicht nur die cores selbst mit in die Rechnung nehmen. Was glaubst Du wie schnell die ohne Cache sind ?? Da bist du schnell im
Minus. Also es sind 22% laut offizieller Schätzung und die Leistung kommt hier auch von anderen Einheiten.

https://www.google.de/amp/s/www.pcg...n-Chip-um-22-Prozent-vergoessern-1279431/amp/
 
"Laut Wikipedia..." nach so einem Satz sollt äet ihr euch massiv schämen. Gibt hunderte Bücher zum Thema Computergrafik. Aber das Fachmagazin für PC Hardware zitiert lieber WIKI...
 
Von Falschinformationen Sprechen und selbst steil an 10% festhalten. Sowas hab ich früher immer bei Schaffe gesehen.
Du verbreitest aber hier Falschinformationen und diskreditierst darauf basierend noch zu Unrecht andere Foristen. Unschön.

Der Vorwurf bzw. Ursprung lautete, dass man knapp ein Viertel des Chips auf Raytracing und Tensor- Core Einheiten "vergeudet" hat.

Man kann nicht nur die cores selbst mit in die Rechnung nehmen.
Doch- Du hast Dir anscheinend selbst die Quelle nicht durchgelesen. Die Berechnung basiert auf einer Turing- GPU OHNE RT und Tensor- Cores. Durch die hat man den ganzen Spaß dann hochgerechnet. Und im Endergebnis sind wir wieder bei den 8-10%.

Was glaubst Du wie schnell die ohne Cache sind ?? Da bist du schnell im
Minus.
Was hat denn das jetzt mit RT Cores und Tensor Cores zu tun? Der Cache ist bei Turing auch ohne die Zusatzeinheiten so groß. Das ist per Design und hat nichts mit Raytracing zu tun.

Also es sind 22% laut offizieller Schätzung und die Leistung kommt hier auch von anderen Einheiten.
Nein- Es steht doch alles drin! Liest Du Deine eigenen Quellen nicht?

Die Idee weitergesponnen kommt man auf 684 statt 754 mm² für TU102, auf 498 statt 545 mm² für TU104 und auf 410 statt 445 mm² für TU106 mit ihren jeweils 36, 24 bzw. 18 Texture Processor Clustern, wenn man die Tensor- und Raytracing-Einheiten weglässt.

Das sind für den TU102 dann 10% für den 104 dann knapp 10% und für den TU 106 dann gut 8%.

LG
Zero
 
Du verfehlst gerade das Thema. Wieso sollte neben PhysiX nicht auch noch eine zweite Physik Engine erfolgreich sein dürfen? Darum gehts doch hier garnicht.

Es geht darum, dass du wie einige andere User in Foren einfach abenteuerliche Thesen zu PhysX aufstellst, die jegliches Fundament vermissen lassen. Heruntergebrochen plapperst du nur unscharfe/unkonkrete PR-Meldungen oder Gerüchte nach, ohne auch nur eine valide Quelle oder Verlinkung zu liefern. Suggerierst damit allerdings angebliche Fakten und erzeugst Eindrücke, die nicht mal von den offiziell Beteiligten (Nvidia, Engine/Game-Entwickler etc.) so vermittelt wurden.

ZeroZerp schrieb:
Du weisst schon, dass Du wahrscheinlich zu 50% Spiele nutzt, die PhysX als Physikbibliothek nutzen?
PhysX ist so gesehen eine Erfolgsgeschichte ohne gleichen, weil inzwischen alle großen Engines (UE, Cryengine und Unity) PhysX als default Bibliothek nutzen.
Deshalb wird es nicht mehr erwähnt, aber hat eine sehr hohe Verbreitung dadurch.

PhysX ist eine Physikbibliothek, die sowohl CPU als auch GPU gestützt operieren kann. Mehr als 500 Titel und die Adaption in Game Engines ist also für Dich einer der größten Reinfälle.

1. Ich würde gerne die Liste mit den angeblichen 500 Titeln sehen, die PhysX als Physik Bibliothek nutzen. Auch deine 50% halte ich für aus der Luft gergriffen. Ich habe dir im Gegenzug bereits Listen mit 400+ Havok Physik Bibliothek Titeln verlinkt. Worauf fußen deine Behauptungen?

2. Der eigentlich schon alberne Kommentar PhysX wäre eine "Erfolgsgeschichte ohne gleichen" entbehrt sogar jeglicher Grundlage, weil es eine schlicht erfundene Unwahrheit ist, dass alle großen Engines PhysX als Default Bibliothek nutzen.

a) Die CryEngine nutzt die native CryPhysics als Standard System. PhysX als Dritthersteller Physik Engine kann lediglich als externe Lösung genutzt werden ("this feature allow CRYENGINE users to use the Nvidia's third party physics engine (PhysX) as an external physics engine within the CRYENGINE."), sie muss allerdings manuell aktiviert werden und befindet sich im Beta-Stadium, was viele Unzulänglichkeiten mit sich bringt:
Currently, not all features of the CryPhysics are supported in the moment. There are few limitations which are outlined below:

only 4-wheeled vehicles supported.
very basic living entity (but since this is normally changed by game-code anyway, this is not a major limitation).
no ray-intersection with water surfaces.
no breakability systems.
no water/air areas.
rope simulation is very basic.
occlusion of explosions.
character cloth (but you might check out VCloth 2.0, the cloth simulation feature of CryEngine, which is addressing this feature explicitly).

NVIDIA PhysX - CRYENGINE V Manual - Documentation

Wir sind hier sehr weit von PhysX als "Default" entfernt.


b) Die Unity Engine nutzt out of the box die eingene "Unity Physics" oder Havok Physics, sie sind kompatibel zueinander, da sie beide auf dem Data-Oriented Technology Stack (DOTS) Framework basieren. Dafür ist Unity mit Havok eine Partnerschaft eingegangen: Unity and Havok Physics for DOTS-based projects
Damit ist auch klar, dass hier das genaue Gegenteil von "PhysX als Default" zutrifft.


c) Die Unreal Engine 4 ist die einzige der genannten Engines die PhysX bis dato als Standardlösung nutzt ("Unreal Engine 4 uses the PhysX 3.3 physics engine to drive its physical simulation calculations and perform all collision calculations.").

Nun wird es aber pikant, Epic hat schon sehr bald vor PhysX in Gänze durch die hauseigene Neuentwicklung "Chaos" zu ersetzen: YouTube
Als gewichtigen Nachteil der bisherigen "Legacy"-Lösung (PhsyX) führt Alan Noon (Engine-Entwickler bei Epic) sogar den Punkt "3rd Party API" an, da dadurch eigene Modifikationen, Verbesserungen und Bugfixing nicht wirklich möglich wären (Open Source für die ehemalige Blackbox kam wohl etwas zu spät).
Diese Argumentation ist nichts Neues, auch ein Bohemia Interactive Engine-Entwickler hat bereits von negativen Erfahrungen mit "3rd Party Libraries" gesprochen und damit den Wechsel von PhysX (Arma 3) auf eine hausinterne Eigentwicklung (neue DayZ-Engine) begründet.

3. Es wird nicht erwähnt, weil es nie so war, dass mehrere große Engines PhysX als default nutzten und es selbst bei der einzigen die es getan hat (Unreal Engine 4) bald Geschichte sein wird. Vielleicht lebt es noch als Urban Legend oder wie du es nennst, Mythos weiter.

ZeroZerp schrieb:
Tja- Mit Deinem Beitrag hast Du nun das Gegenteil von dem erreicht, worauf Du eigentlich abgezielt hast
Deshalb ist es immer gut sich vorher zu informieren, bevor man einer Sache oder jemandem an den Karren fahren will.

Dein Wort in Gottes Ohr.
 
Zuletzt bearbeitet von einem Moderator:
b) Die Unity Engine nutzt out of the box die eingene "Unity Physics" oder Havok Physics, sie sind kompatibel zueinander, da sie beide auf dem Data-Oriented Technology Stack (DOTS) Framework basieren. Dafür ist Unity mit Havok eine Partnerschaft eingegangen: Unity and Havok Physics for DOTS-based projects
Damit ist auch klar, dass hier das genaue Gegenteil von "PhysX als Default" zutrifft.

Find ich lustig wie hier die Nvidia-hater wieder Lügen müssen.
Unity läuft per default mit PhysX.
Physics Changes in Unity 2018.3 Beta – Unity Blog
Unity - Manual: Physics in Unity 5.0


Aber hey - was will man von unehrlichen fanatikern die wewnig bis keine Ahnungn von Software haben schon erwarten.
 
Du pickst dir eine Sache heraus (Unity) und schreist Lüge um alles zu diskretitieren was ich schrieb, aber zu dem restlichen Unsinn von ZeroZerp sagst du kein Wort.

PhysX war nie die dominierende Bibliothek auf den Gesamtmarkt gesehen und ist zudem nun auf dem absteigenden Ast, selbst ehemalige PhysX nutzende Entwickler ersetzen PhysX durch Eigenenentwicklungen oder neue Kooperationen mit anderen Anbieter. Google hat sich bzgl. Stadia ebenfalls für Havok entschieden, und ging Partnerschaften mit Epic/UE4 und Unity ein. ZeroZerps Intention war ganz klar, den Eindruck zu erwecken als würden immer mehr Engines & Entwickler PhysX nutzen und die Verbreitung zunehmen. Spätestens mit dem Fallenlassen von PhysX durch Epic und durch die neue Kooperaton von Unity mit Havok ist aber klar wohin die Reise in Zukunft geht. Havok gehört mittlerweile Microsoft und die werden sie ebenfalls fürs Cloudgaming nutzen (dass Sony auch noch im Cloud-Boot bei MS sitzt, wissen die Experten ohnehin).
 
Zuletzt bearbeitet von einem Moderator:
Zurück