Raytracing: AMD patentiert eigene Texturprozessor-Technologie

CPU-PhysX war nie irgendwo "exklusiv", das steckte afaik in jedem Unreal-Engine 3-Spiel drin. Und die gibt's seit 2006.
Das GPU-basierte PhysX ist komplett anders, den kannst du mit dem Codeteil für die CPU nicht vergleichen.^^

Um das Thema mal zu Grabe zu tragen.
Es ist in der Tat nicht das gleiche PhysX wie am Anfang.

NVidia hat sich regelrecht den Hintern aufgerissen um es nur einigermassen, nur auf Highend Karten laufen lassen zu können. Dabei haben sie das Versprechen eine "alte Karte" als PhysiX-Beschleuniger nutzen zu können gleich min. zwei mal gebrochen seit der ersten Aussage bis man das ganze stillschweigend *beerdigt* hat.
Heute gibt es ausserd bei Borderlands2, das mit meiner GTX1080 immernoch starke/unschöne FPS Drobs hat, keine Reine GPU PhysX mehr (ok und PhysX Techdemos, für die Klugscheisser hier).

Ironischerweise haben haben NV bei so viel Geld keinen Cent in die MultiCPU Entwicklung gesteckt (heute freilich anders).

Ich war ein grosser Fan von Kleider und Flüssigkeitssimulation. Ersteres geht heute ohne Meckern, an oder aus hat KEINEN Performance Einfluss. mmmh komisch
 
Du hast gesagt, 20% pro Shader-Cluster. Potentiell 20% mehr Performance sehe ich durchaus als signifikant an. Auch 8-9% mehr Performance würde ich als potentiell signifikant ansehen, wenn die RT-Einheiten in der Sonne liegen ;)
gRU?; cAPS

in zukunft wird der anteil der benutzten gpu fläche für rt noch deutlich zulegen ;), man sieht ja jetzt schon, dass die leistung von turing in dem bereich bei weitem noch nicht ausreicht.
 
Also ein nur teilweise beschleunigte Version. Hoffentlich reicht das dann für die minmaleffekte.
Ohne geeigneten Geometrie-Cache wird wohl der normale Cache stark beansprucht werden, hoffentlich reicht dann dort die Bandbreite noch aus.

Heute gibt es ausserd bei Borderlands2, das mit meiner GTX1080 immernoch starke/unschöne FPS Drobs hat, keine Reine GPU PhysX mehr (ok und PhysX Techdemos, für die Klugscheisser hier).
Wer keine Fakten verträgt der lügt halt dann. BL2 hatte von eine sehr buggy Version von PhysX, aber läuft auch mi PhysX max auf ner 1050Ti gut.
 
@pleasedontkillme: Realtime fluid deformation ist im Gegensatz auch heute noch eine echt Herausforderung. War ja kürzlich bei der Google Stadia 2019 GDC noch auserkorenes Beispiel im gezeigeten UL-Benchmark um den Nutzen der gegebenen multiGPU-Möglichkeiten von Stadia darzulegen.

@Topic: Den von AMD gewählten Ansatz Raytracing zu realisieren finde ich dann sehr interessant. Kann mir gut vorstellen, dass Sie damit RealTime-Raytracing halbwegs kosten- und ressourcen-Effizient implementiert bekommen.
Aber alle Aussagen zu AMD oder Konsolen-Raytracing bezogen sich bisher ausschließlich auf die Anwendung für Spiegelungen, nicht wahr?
 
Zuletzt bearbeitet:
Bei umfassender Nutzung von RT ist der Geschwindigkeitszuwachs massiv für derart wenig Chipfläche.
Bei hoch spezialisierten Einheiten ist das eigentlich logisch das sie effektiv arbeiten. Sonst könnte sich Nvidia das sparen.
Und die RT-Cores sind nur bei RT aktiv, sonst nicht, was die absolute Masse aller Games ist.
Hier im Forum hat das glaube ich auch niemand kritisiert, dass die RT-Cores nicht effektiv sind.
Aber es müssten eigentlich deutlich mehr sein, damit RT auch mit höheren Auflösungen sinnvoll wird.
Leo hat dazu ja schon spekuliert das Nvidia vermutlich 7nm eingeplant hatte für Turing.
 
Nvidia wartete für 7nm auf die EUV-Belichtungstechnik (N7+ aka 7FF+). Der Bang durch den Wechsel wird damit größer sein als von Vega10 auf Vega20(7FF). Bei AMD kommt dann glaub ich Navi21 mit EUV-Belichtung, ggbfs sogar erst Acturus.

Ich würde ja jetzt zu gern wissen ob Navi21 dann mehr als max. 256 Textureinheiten beherbergen wird :schief:
Vega10 = 256
Vega20 = 240
Navi10 = 160
 
Zuletzt bearbeitet:
Du weisst schon, dass Du wahrscheinlich zu 50% Spiele nutzt, die PhysX als Physikbibliothek nutzen?
PhysX ist so gesehen eine Erfolgsgeschichte ohne gleichen, weil inzwischen alle großen Engines (UE, Cryengine und Unity) PhysX als default Bibliothek nutzen.
Deshalb wird es nicht mehr erwähnt, aber hat eine sehr hohe Verbreitung dadurch.

Wenn das mit Raytracing ähnlich läuft, dann ist mir das nur recht.



Quelle:
NVIDIA macht PhysX zur Open-Source-Software - Hardwareluxx

Tja- Mit Deinem Beitrag hast Du nun das Gegenteil von dem erreicht, worauf Du eigentlich abgezielt hast ;)
Deshalb ist es immer gut sich vorher zu informieren, bevor man einer Sache oder jemandem an den Karren fahren will.

Dass PhysX gescheitert ist, ist ein weiterer "urban myth", der sich wohl ewig in den Foren halten wird.

Nichts fü ungut,
Zero

Bereits aus dem Stegreif hätte ich (dir) sagen können, dass Havok als Phsyik Bibliothek in Games mindestens (!) genau so häufig zum Einsatz kommt wie PhsyX. Das etwas dick aufgetragene "Erfolgsgeschichte ohne gleichen" ist daher schlicht unzutreffend. Hier ist eine unvollständige Liste mit rund knapp 400 Games die Havok nutzen: List of games using Havok - Wikipedia

Dabei fehlen dort einige aktuelle Titel, die Havok selbst auf ihrer Homepage nennt (doppelte Titel die bereits in der anderen Liste vorkommen habe ich weggelassen):

Assassin’s Creed Odyssey.
Call of Duty: Black Ops IV.
Call of Duty: Infinite Warfare.
Crackdown 3.
Dishonored: Death of the Outsider.
Dishonored 2.
Dragon Ball XenoVerse 2 .
The Evil Within 2.
Far Cry 5.
Far Cry New Dawn.
For Honor.
Tom Clancy’s Ghost Recon: Wildlands.
Halo Wars 2.
Injustice 2.
The Last Guardian.
Mafia III.
Mario + Rabbids Kingdom Battle.
Middle-earth: Shadow of War.
Just Cause 4.
Forza Horizon 4.
Tom Clancy’s Rainbow Six Siege.
Resident Evil 7: Biohazard.
Starlink: Battle for Atlas.
Uncharted 4: A Thief’s End.
Uncharted: The Lost Legacy.
Watch Dogs 2.


Was sagen uns die Listen (außerdem)?
Hardwareluxx gibt vermutlich in erster Linie Nvidia-PR wieder, scheinbar ohne selbst groß zu recherchieren, die du bereits zitiert hast:
Das PhysX SDK kommt in über 500 Spielen zum Einsatz und wird von Game-Engines wie Unreal Engine 3 und 4, Unity, AnvilNext, Stingray, Dunia 2 und REDengine verwendet. Besonders die Simulation von Stoffen und Zerstörung von Level-Elementen wurde laut NVIDIA erst durch PhysX möglich. Dazu gehören Batman: Arkham Asylum, Batman: Arkham City, Bioshock Infinite, Borderlands 2, Lords of the Fallen, Monster Hunter Online, Daylight und Witcher 3.

Gerade was z.B. die Anvil(Next) oder Dunia(2) Engine betrifft, wurde ich stutzig, da mir bekannt war, dass nahezu alle Assassin's Creed- und Far Cry-Teile Havok als Physik-Motor nutzen. Selbst die REDengine hat bis zur Iteration 2 (Witcher 2) das Havok SDK genutzt, aber das nur nebenbei.

Den Eindruck den solche PR-Zitate oder auch User-Behauptungen ohne Nachweis ("inzwischen alle großen Engines (UE, Cryengine und Unity) PhysX als default Bibliothek nutzen.") erzeugen, ist nicht korrekt. Die Cry-Engine z.B. hat in erster Linie (seit jeher) ein eigenes Physik Framework, und hat Third Party Lösungen wie PhysX oder Havok viel später zusätzlich integriert.
 
Physik X ist auch kein Erfolg für Nvidia.
Ganz im Gegenteil, Phys X auf GPU-Basis ist tot, und wird überall "nur" per CPU umgesetzt.
 
Für mich ist der AMD Ansatz auch der, der einer größeren Logik folgt. Für mich sind reine RT Einheiten, die sonst im Game quasi nix können, auch sinnlose Platzverschwendung. Und das muß bezahlt werden, bzw kostet Leistung, die man ansonsten abrufen könnte. Es soll ja mal in Richtung 144 bei 4K gehen, oder halt mehr. :-)
 
Ja, aber AMD tut auch immer noch verdammt viel, um Geld zu sparen. Reine RT Cores sind sind bestimmt schneller, aber dafür auch exklusiv und gammeln rum, wenn kein RT berechnet wird. AMD muss vermutlich jeden Cent rausquetschen aus den Chips. Da muss Nvidia hingegen bei den krassen Margen nicht unbedingt tun.
 
Hoffentlich baut sich AMD da nicht ein ähnliches Bottleneck in die Renderpipeline ein wie bei den FX Prozessoren(halbherzige 8 Kerner). Das geht dann wieder jahrelang nach hinten los.
 
Physik X ist auch kein Erfolg für Nvidia.
Ganz im Gegenteil, Phys X auf GPU-Basis ist tot, und wird überall "nur" per CPU umgesetzt.

GPU-PhysX kommt zwar nicht mehr häufig zum einsatz, was ich sehr schade finde aber die Spiele werden ewig leben.
Die effekte waren einfach genial und haben spiele wie Mafia 2 unheimlich aufgewertet optisch. Ohne das feature wirkten die Games unfertig, steril und leer. Das waren wirklich gravierende unterschiede ! ;)

Mirrors Edge
YouTube

Batman Arkham City
YouTube

Alice - Madness Returns
YouTube

The Bureau: XCOM Declassified
YouTube (nicht nur die effekte sind sehr hübsch )

Borderlands 2
YouTube

Metro Last Light
https://youtu.be/_DHjsa6YpcY?t=70

usw. usw. usw.

Die AMDler fanden das Feature auch genial so tief im inneren, würden es allerdings nie zugeben. :D :lol:

Edit :

Zum thema RAYTRACING ;

Jetzt sogar in älteren Spielen;

https://www.pcgameshardware.de/Rayt...-und-Call-of-Duty-mit-neuen-Effekten-1293431/

...kann ich aber leider nicht nutzen. Meine GPU unterstützt es nicht bzw. nicht so richtig.:D
 
Zuletzt bearbeitet:
Hardwareluxx gibt vermutlich in erster Linie Nvidia-PR wieder, scheinbar ohne selbst groß zu recherchieren

Ich lese dieses Portal schon seit Ewigkeiten nicht mehr. Man liest dort aus meiner Sicht fast nur unwichtiges PR-Gedöhns über NV, Intel und Apple, während bei AMD irgendwelche Prozessoren oder genauere Daten dazu angekündigt werden...
Auch bei Festplatten und NAS scheint HWL fast nur gefärbte Werbeinformationen über ihre "Partner" abzulassen und kritisiert wird so gut wie gar nicht. Für mich sieht qualitativer, unabhängiger Journalismus massiv anders aus.

Und wenn es dann doch eine News zu AMD gibt, wird gleich irgend etwas zu NV, Intel un hinterhergeschoben, auch wieder meist unwichtiges Zeug. Andersherum habe ich es noch nie gesehen, oft "übersieht" man anscheinend auch interessante News zu AMD, die überall sonst stehen.

Die Forenuser und Moderatoren stehen den News-Schreibern dort auch in nichts nach. Aber wenn man ein totaler Fanboy der "Partnermarken" ist, dann ist HWL sicherlich ein cooles Fanforum, wo man kaum Kritik an seiner Lieblingsmarke lesen muss.

Und Benchmarks kann man erst recht vergessen, wenn teils Monate alte Treiber zum Test genommen werden, zu deren Release das Produkt noch lange nicht verfügbar war, oder andere gravierende Fehler "eingebaut" sind...
Also wer CB als biased ansieht (was ich öfter schon gelesen habe), kennt wohl HWL noch nicht. Dann kann ich ihm nur gratulieren, erspart wohl Bauchschmerzen über eklatante Fehler in der Berichterstattung und ich denke, es ist auch nur ein Randportal mit kleiner Userbase.

Aber nun zurück zu RT: Ist doch klar, dass RT sich nur durchsetzen kann, wenn man viel Beschleunigung hat. Aktuell sieht man entweder im Spielgeschehen den Effekt nicht, oder es kostet so viel Power, dass man kaum noch Leistung hat.
So wie NV es implementiert hat, muss man sich also entscheiden, ob man gutes Raytracing will oder ob man in herkömmlichem Rendering Power möchte. Das ist ganz offensichtlich ziemlich doof.

Wenn man Raytracing auch durch eine Verbesserung der Unified Shader deutlich beschleunigen kann, ermöglicht dieser Kompromiss, eine bessere Leistung in bestehenden Spielen zu erhalten, und gleichzeitig die Raytracing-Leistung zu steigern. Teile des Chips würden nicht mehr brach liegen.
Damit wird sich Raytracing durchsetzen können.
 
Das ist doch einfach nur Bullshit. Raytracing außen vor, aber was ist das denn für ein angebliches 4K Bild in Monster Hunter World @Sunyego?
Ich zock seit 290X, über FuryX, Vega64 LC, und jetzt mit der VII aufm 4k FreeSync. Diese graue Suppe im verlinkten Monster Hunter 4K Vid beispielsweise ist doch einfach nur abscheulich.
Genauso Dishonored 2 oder DeusX im verlinkten PCGH-Artikel.

Shaderquali und/oder Texturen einfach absolut ungenügend von der Darstellungsqualität und den Namen 4K nicht würdig.
 
Zuletzt bearbeitet:
GPU-PhysX kommt zwar nicht mehr häufig zum einsatz, was ich sehr schade finde aber die Spiele werden ewig leben.
Die effekte waren einfach genial und haben spiele wie Mafia 2 unheimlich aufgewertet optisch. Ohne das feature wirkten die Games unfertig, steril und leer. Das waren wirklich gravierende unterschiede
PhysX war ein rein grafisches Gimmick ohne jeden spielerischen Mehrwert.
Ageia hat damals anhand einiger "Games", welche sich anhand ihres Umfangs aber nur mit großer Vorsicht so nennen durften, demonstiert, wie derartige Effekte mit Gameplay verwoben werden konnten. Aufgrund der propietären Natur des Ganzen war dies aber von Anfang an zum Scheitern verurteilt.

Das, was Nvidia dann später drauß gemacht hat, hat entsprechende Games nur mäßig aufgewertet, am besten umgesetzt hat das mMn. Batman: Arkham Asylum.
Daneben haben Spiele wie Crysis oder Battlefield: Bad Company 2 eindrucksvoll unter Beweis gestellt, dass sich auch mit der CPU ansprechende Physikeffekte durchaus umsetzen lassen.

Ich kenne jedenfalls niemand, der GPU-PhysX ernsthaft vermisst, eine propietäre Spielerei, nicht mehr nicht weniger.^^
 
Hat nicht ein ehemaliger NV-Ingenieur geschrieben, dass ein "RT-Core" eine eigenständige Pipeline für die "Intersection-Tests" der Strahlen zu den Streaming-Prozessoren hinzufügt?
Wo ist denn da im Vergleich der Ansatz von AMD "hybrid", wenn sie ebenfalls eine eine dedizierte "ray intersection engine" implementieren?

Wo da jetzt der große Unterschied liegen soll ist mir nicht klar.
 
Dann muss ich stark annehmen, dass wir beide eine unterschiedliche Definition von Erfolg haben. Physx ist für mich einer der größten Reinfälle der letzten Jahre gewesen und das Gegenteil einer Erfolgsgeschichte.
Dann begründe das mal. PhysX ist eine Physikbibliothek, die sowohl CPU als auch GPU gestützt operieren kann. Mehr als 500 Titel und die Adaption in Game Engines ist also für Dich einer der größten Reinfälle. Das verstehe ich nicht.

Nvidias größtes Problem ist derzeit die Chipfläche, die für Raytracing drauf geht. Die Turing Architektur selbst ist richtig gut und kann ohne Probleme mit RDNA konkurrieren. Aber wenn 25% deines Chips für ein Feature drauf gehen, das 98% der Spiele nicht nutzen, dann kriegst du Probleme mit der Wirtschaftlichkeit.
Wie kommst Du darauf, dass 8%-10% Chipfläche für nvidia das größte Problem ist?
Und wie kommst Du dann plötzlich auf 25%?
Und wieso sollte es unnormal sein, dass neue Technik am Anfang keine große Verbreitung hat und wie kommst Du drauf, dass das dann plötzlich Probleme mit der Wirtschaftlichkeit gibt?

Wenn über PhysX im Zusammenhang mit Nvidia Grafikkarten gesprochen wird, dann ist trivial, dass es um GPU-PhysX geht
Genau- Da es aber nicht im Zusammenhang mit GPU PhysX genannt wurde, sondern nur der Bezug zur Firma hergestellt wurde, ist es ebenso "trivial", dass es nicht nur um die GPU PhysX geht.

Jeder weiß was gemeint ist.
Offensichtlich nicht.

Viel Platz, den man halt sonst mit Shadern zukleistern könnte. 20% mehr Shader und damit potentiell 20% mehr Performance - das wäre doch was, oder?
gRU?; cAPS
Wenn das so einfach wäre, ja. Aber erstens sind es eben 8%-10% und zweitens kommen aufgrund von Skalierungsverlusten dann eben nur 6%-8% an Mehrleistung dabei rum. Statt 60 gibts dann 64,7 FPS. "Opferst" Du aber den Platz für RT- und Tensor Cores, kommen für eine neue Technologie eben statt 10 FPS auch mal 60 FPS raus.

Somit ist die "Platzverschwendung" offensichtlich mehr als Effektiv (auch für die Zukunft) angelegt.

Jedenfalls ist die derzeitige Lösung von NVidia relativ ineffektiv, was die Ausnutzung von der Chipfläche anbelangt.
Im Gegenteil (siehe einen Absatz drüber).

Man sieht es daran, dass trotz maximal 30% mehr Leistung solche Wahnsinnschipdesigns herausgekommen sind. Das ist vor allem teuer für den Kunden.
Das Featureset wurde erheblich aufgebohrt. Wo nimmst Du das her, dass Turing maximal 30% Mehrleistung hätte?

Schon mal nen Blick auf z.B. F1 2019, Wolfenstein 2, Rainbow Six Siege, PUBG oder Rage 2 geworfen?

Du hast gesagt, 20% pro Shader-Cluster.
Achtung- Die 20% pro Shadercluster beziehen sich auf die Änderung zur Vorgängergeneration.
Da sind auch die deutlich größeren Caches etc. mitinbegriffen.

Rechnet man die weg, bleibts bei den 8%-10%

Potentiell 20% mehr Performance sehe ich durchaus als signifikant an. Auch 8-9% mehr Performance würde ich als potentiell signifikant ansehen, wenn die RT-Einheiten in der Sonne liegen ;)
gRU?; cAPS
Siehe oben- Die Performancesteigerungen, die Du hier in den Raum stellst, würden nicht erreicht.

Leute, chillt doch mal. Im Moment ist der Anteil am Chip noch nicht so hoch. Aber wenn das wächst, wäre es doch super, wenn die "Hybrid-Shader-RT-Cores" noch andere Aufgaben übernehmen könnten. Letztlich lässt sich durch solch einen Ansatz der Anteil ordentlich raufschrauben, ohne Einheiten ungenutzt zu lassen, wenn mal kein Raytracing genutzt wird, also bei älteren Spielen oder Indi Titeln.
So siehts aus.

Wenn alles genau so gut auf Shadern läuft, hat man halt keinen Kompromiss zwischen Shadern und RT-Einheiten mehr und ich müsste mich nicht entscheiden, ob ich lieber mehr "traditionelle" Shading-Performance, oder mehr RT-Performance hätte.
gRU?; cAPS
Das stimmt, aber das ist doch genau der Witz an den fixed function Einheiten. Die können das BHV Traversal eben erheblich schneller berechnen. Sonst hätte man ja gleich beim Shader- RT bleiben können.

Selbst wenn es "nur" ca. 10% der Chipfläche sind...wobei das ja nicht alles ist, denn die Tensors für DLSS fressen ja auch Platz...
Die sind da schon inbegriffen.

Für ein schwaches Hybrid-RT in FHD, wobei derzeit die Entscheidung in Spielen, ob etwas Licht(Reflexionen), oder Schatten nötig ist, denn für beides gleichzeitig in noch spielbaren FPS reicht es nicht, dann ist das schon eine Menge...
Du bist mit Deinem Informationsstand im November 2018 stehengeblieben. Da war das so.

Für "Mehr", und vor allem in höherer nativer Auflösung, würde man wesentlich mehr "Platz" benötigen, auch in 5nm...
In allererster Linie braucht man erstmal Erfahrung in Sachen Spieleentwicklung unter Einbezug von RT. Dann schlaue Köpfe, die das optimieren.

22% der Die-Fläche werden für Tensor-, und RT-Cores bei Nvidia benötig, oder grob geschrieben 1/4 der Fläche.
Siehe ein par Absätze oben- Du rechnest zu viel drauf.

Zum Thema RT ohne extra Hardware dafür, muss es wenigstens ein Spiel, oder eine halbwegs brauchbare Demo geben, damit man dass vergleichen kann.
Da jeder Hersteller ja aber nun extra Hardware dafür verbaut, werden wir auf einen Vergleich verzichten müssen.

Abgesehen davon wird ein Spiel durch grafische Effekte nicht wirklich besser.
Doch, weil eine gute Grafik unheimlich zur Atmosphäre eines Spiels beitragen kann.
Und manche Spiele werden fast ausschliesslich von deren Atmosphäre und Immersion getragen.

So lange RT nur ein Gimmick ist, was die Chips dahinter verteuert, und nur in wenigen Spielen angewendet wird, muss man da nicht so einen Hype drum machen.
Wir reden hier von Grafikkarten. Wenn Du also bessere Grafik oder neue Grafikoptionen als Gimmick abtust, dann reicht Dir ja eine Switch vollkommen aus.
Und ja - Da gibts Spiele mit mittelmaßgrafik, die einen höllen- Spaß machen.

Bei zu vielen defekten RT Einheiten ist doch ein Chip hin. Für den Fall bedarf es Redundanzen, die brauchen ebenso Platz.
Bei einer defekten Shadereinheit ist der Chip auch hin. Bei einer defekten Cache- Zelle ist der Chip auch hin. Redundanzen gibts auf Schaltungsebene nicht. Auf Blockebene könnte man mit Lasercut defekte Bereiche abtrennen, wenn es das Chipdesign hergibt.

Ich finde es voll ok so viel wie auch immer an Chipfläche dafür herzugeben. Aber wenn Sie dann doch merken dass sogar Ihre sch...s Ti zu lahm dafür ist... sorry die Spiele nutzen ja alle nur ein bisschen Rt und dann ist da noch ein drittel Frames übrig, was soll der Quatsch?
Du bist also auch noch auf dem Stand Oktober/November 2018 stehen geblieben. Wir sind RT- Technisch inzwischen auf einem ganz anderen Niveau angelangt.

Ihre Technik ist momentan Schrott und die User sollen die Entwicklungsarbeit leisten!
Mit der Turing Architektur wurde einer der größten Sprünge in Sachen Featureset überhaupt hingelegt. Interessant, wenn Du die schnellstverfügbare Hardware als "Schrott" abstempelst. Sorry, aber so kann man Dich einfach nich ernst nehmen.
Mir wär auch nicht bekannt, dass hier irgendein User Entwicklungsarbeit für nvidia übernehmen würde.

Und Amd's shit wird natürlich momentan eher langsamer sein als die Spezialhardware von nVidia (welche wie eben erwähnt aber auch viel zu lahm), aber eben nicht proprietär
Doch - Auch AMDs Hardwarelösungen sind proprietär.

und wenn man mal irgendwann 12 Cpu cores und 24 Freds hat, dann können die wo sich gerade am langweilen sind evtl. damit beschäftigen und so Sachen
CPUs sind viel zu schwach für derlei Spielereien.

nVidia würde eher eine Spezial Cpu dafür verkaufen als es woanders laufen zu lassen :P
Weil es der schnellste Weg ist.

Sehe ich genauso. Es ist ja nicht so, als ob die Idee von spezialisierten Recheneinheiten die in der GPU nur einen Zweck erfüllen neu wäre. Die gehören heute einfach dazu, und so wird es denke ich auch mit den RT Cores werden.
Genau so sieht es aus. Ich muss schon ein wenig schmunzeln, wenn man hier immer wieder liest, dass einige der absoluten Überzeugung sind, nur multi- purpose Einheiten auf ihren Dies zu haben.

In ein paar GPU Generationen wird es als ganz selbstverständlich angesehen werden, dass ein Teil der Chipfläche zur Beschleunigung der Raytracing Berechnungen verwendet wird.
Ich möchte auch gerne mal in den Raum werfen, dass GPU Renderer immer wichtiger werden, der Markt der GPU Renderfarmen wächst. Und beim GPU Rendering liegt der Leistungszuwachs durch die RT Cores bei weit mehr als den 10% die sie an Chip Fläche kosten.
Genau so sieht es aus.

Es ist natürlich schwer zu sagen wie hoch der Leistungszuwach im Rendering nun genau ist, da es stark auf die zu rendernde Szene ankommt. Wird prozentual ein hoher Anteil der Rechenzeit ins Raytracing investiert dann ist auch der Zuwachs durch die RT Cores entsprechend groß.
Das BHV Traversal wird ungefähr um den Faktor 20 beschleunigt.

Bereits aus dem Stegreif hätte ich (dir) sagen können, dass Havok als Phsyik Bibliothek in Games mindestens (!) genau so häufig zum Einsatz kommt wie PhsyX.
Du verfehlst gerade das Thema. Wieso sollte neben PhysiX nicht auch noch eine zweite Physik Engine erfolgreich sein dürfen? Darum gehts doch hier garnicht.

Physik X ist auch kein Erfolg für Nvidia.
Ganz im Gegenteil, Phys X auf GPU-Basis ist tot, und wird überall "nur" per CPU umgesetzt.
Aha- Und was ändert das jetzt daran, dass die Bibliothek massenhaft verbreitung findet?

Für mich ist der AMD Ansatz auch der, der einer größeren Logik folgt. Für mich sind reine RT Einheiten, die sonst im Game quasi nix können, auch sinnlose Platzverschwendung.
Man kann die RT Einheiten für alle Arten strahlenbasierter Berechnungen Einsetzen. Sound, Deckungs-/Treff-/Sichtungssysteme von Gegnern, Beschleunigung von Octree-/Voxeltechnik.
Und sicherlich noch einiges mehr. Die Technik muss sich halt erstmal genauso entwickeln dürfen wie Rastergrafik.

LG
Zero
 
Zuletzt bearbeitet:
Hat nicht ein ehemaliger NV-Ingenieur geschrieben, dass ein "RT-Core" eine eigenständige Pipeline für die "Intersection-Tests" der Strahlen zu den Streaming-Prozessoren hinzufügt?
Wo ist denn da im Vergleich der Ansatz von AMD "hybrid", wenn sie ebenfalls eine eine dedizierte "ray intersection engine" implementieren?

Wo da jetzt der große Unterschied liegen soll ist mir nicht klar.

Du triffst den Nagel auf den Kopf. Genau das habe ich mir auch gedacht...
Ich bin gespannt, wie das dann in der Praxis aussieht bzw. wann das mal technisch näher beleuchtet wird.

LG
Zero
 
Zurück