Dann muss ich stark annehmen, dass wir beide eine unterschiedliche Definition von Erfolg haben. Physx ist für mich einer der größten Reinfälle der letzten Jahre gewesen und das Gegenteil einer Erfolgsgeschichte.
Dann begründe das mal. PhysX ist eine Physikbibliothek, die sowohl CPU als auch GPU gestützt operieren kann. Mehr als 500 Titel und die Adaption in Game Engines ist also für Dich einer der größten Reinfälle. Das verstehe ich nicht.
Nvidias größtes Problem ist derzeit die Chipfläche, die für Raytracing drauf geht. Die Turing Architektur selbst ist richtig gut und kann ohne Probleme mit RDNA konkurrieren. Aber wenn 25% deines Chips für ein Feature drauf gehen, das 98% der Spiele nicht nutzen, dann kriegst du Probleme mit der Wirtschaftlichkeit.
Wie kommst Du darauf, dass 8%-10% Chipfläche für nvidia das größte Problem ist?
Und wie kommst Du dann plötzlich auf 25%?
Und wieso sollte es unnormal sein, dass neue Technik am Anfang keine große Verbreitung hat und wie kommst Du drauf, dass das dann plötzlich Probleme mit der Wirtschaftlichkeit gibt?
Wenn über PhysX im Zusammenhang mit Nvidia Grafikkarten gesprochen wird, dann ist trivial, dass es um GPU-PhysX geht
Genau- Da es aber nicht im Zusammenhang mit GPU PhysX genannt wurde, sondern nur der Bezug zur Firma hergestellt wurde, ist es ebenso "trivial", dass es nicht nur um die GPU PhysX geht.
Jeder weiß was gemeint ist.
Offensichtlich nicht.
Viel Platz, den man halt sonst mit Shadern zukleistern könnte. 20% mehr Shader und damit potentiell 20% mehr Performance - das wäre doch was, oder?
gRU?; cAPS
Wenn das so einfach wäre, ja. Aber erstens sind es eben 8%-10% und zweitens kommen aufgrund von Skalierungsverlusten dann eben nur 6%-8% an Mehrleistung dabei rum. Statt 60 gibts dann 64,7 FPS. "Opferst" Du aber den Platz für RT- und Tensor Cores, kommen für eine neue Technologie eben statt 10 FPS auch mal 60 FPS raus.
Somit ist die "Platzverschwendung" offensichtlich mehr als Effektiv (auch für die Zukunft) angelegt.
Jedenfalls ist die derzeitige Lösung von NVidia relativ ineffektiv, was die Ausnutzung von der Chipfläche anbelangt.
Im Gegenteil (siehe einen Absatz drüber).
Man sieht es daran, dass trotz maximal 30% mehr Leistung solche Wahnsinnschipdesigns herausgekommen sind. Das ist vor allem teuer für den Kunden.
Das Featureset wurde erheblich aufgebohrt. Wo nimmst Du das her, dass Turing maximal 30% Mehrleistung hätte?
Schon mal nen Blick auf z.B. F1 2019, Wolfenstein 2, Rainbow Six Siege, PUBG oder Rage 2 geworfen?
Du hast gesagt, 20% pro Shader-Cluster.
Achtung- Die 20% pro Shadercluster beziehen sich auf die Änderung zur Vorgängergeneration.
Da sind auch die deutlich größeren Caches etc. mitinbegriffen.
Rechnet man die weg, bleibts bei den 8%-10%
Potentiell 20% mehr Performance sehe ich durchaus als signifikant an. Auch 8-9% mehr Performance würde ich als potentiell signifikant ansehen, wenn die RT-Einheiten in der Sonne liegen
gRU?; cAPS
Siehe oben- Die Performancesteigerungen, die Du hier in den Raum stellst, würden nicht erreicht.
Leute, chillt doch mal. Im Moment ist der Anteil am Chip noch nicht so hoch. Aber wenn das wächst, wäre es doch super, wenn die "Hybrid-Shader-RT-Cores" noch andere Aufgaben übernehmen könnten. Letztlich lässt sich durch solch einen Ansatz der Anteil ordentlich raufschrauben, ohne Einheiten ungenutzt zu lassen, wenn mal kein Raytracing genutzt wird, also bei älteren Spielen oder Indi Titeln.
So siehts aus.
Wenn alles genau so gut auf Shadern läuft, hat man halt keinen Kompromiss zwischen Shadern und RT-Einheiten mehr und ich müsste mich nicht entscheiden, ob ich lieber mehr "traditionelle" Shading-Performance, oder mehr RT-Performance hätte.
gRU?; cAPS
Das stimmt, aber das ist doch genau der Witz an den fixed function Einheiten. Die können das BHV Traversal eben erheblich schneller berechnen. Sonst hätte man ja gleich beim Shader- RT bleiben können.
Selbst wenn es "nur" ca. 10% der Chipfläche sind...wobei das ja nicht alles ist, denn die Tensors für DLSS fressen ja auch Platz...
Die sind da schon inbegriffen.
Für ein schwaches Hybrid-RT in FHD, wobei derzeit die Entscheidung in Spielen, ob etwas Licht(Reflexionen), oder Schatten nötig ist, denn für beides gleichzeitig in noch spielbaren FPS reicht es nicht, dann ist das schon eine Menge...
Du bist mit Deinem Informationsstand im November 2018 stehengeblieben. Da war das so.
Für "Mehr", und vor allem in höherer nativer Auflösung, würde man wesentlich mehr "Platz" benötigen, auch in 5nm...
In allererster Linie braucht man erstmal Erfahrung in Sachen Spieleentwicklung unter Einbezug von RT. Dann schlaue Köpfe, die das optimieren.
22% der Die-Fläche werden für Tensor-, und RT-Cores bei Nvidia benötig, oder grob geschrieben 1/4 der Fläche.
Siehe ein par Absätze oben- Du rechnest zu viel drauf.
Zum Thema RT ohne extra Hardware dafür, muss es wenigstens ein Spiel, oder eine halbwegs brauchbare Demo geben, damit man dass vergleichen kann.
Da jeder Hersteller ja aber nun extra Hardware dafür verbaut, werden wir auf einen Vergleich verzichten müssen.
Abgesehen davon wird ein Spiel durch grafische Effekte nicht wirklich besser.
Doch, weil eine gute Grafik unheimlich zur Atmosphäre eines Spiels beitragen kann.
Und manche Spiele werden fast ausschliesslich von deren Atmosphäre und Immersion getragen.
So lange RT nur ein Gimmick ist, was die Chips dahinter verteuert, und nur in wenigen Spielen angewendet wird, muss man da nicht so einen Hype drum machen.
Wir reden hier von Grafikkarten. Wenn Du also bessere Grafik oder neue Grafikoptionen als Gimmick abtust, dann reicht Dir ja eine Switch vollkommen aus.
Und ja - Da gibts Spiele mit mittelmaßgrafik, die einen höllen- Spaß machen.
Bei zu vielen defekten RT Einheiten ist doch ein Chip hin. Für den Fall bedarf es Redundanzen, die brauchen ebenso Platz.
Bei einer defekten Shadereinheit ist der Chip auch hin. Bei einer defekten Cache- Zelle ist der Chip auch hin. Redundanzen gibts auf Schaltungsebene nicht. Auf Blockebene könnte man mit Lasercut defekte Bereiche abtrennen, wenn es das Chipdesign hergibt.
Ich finde es voll ok so viel wie auch immer an Chipfläche dafür herzugeben. Aber wenn Sie dann doch merken dass sogar Ihre sch...s Ti zu lahm dafür ist... sorry die Spiele nutzen ja alle nur ein bisschen Rt und dann ist da noch ein drittel Frames übrig, was soll der Quatsch?
Du bist also auch noch auf dem Stand Oktober/November 2018 stehen geblieben. Wir sind RT- Technisch inzwischen auf einem ganz anderen Niveau angelangt.
Ihre Technik ist momentan Schrott und die User sollen die Entwicklungsarbeit leisten!
Mit der Turing Architektur wurde einer der größten Sprünge in Sachen Featureset überhaupt hingelegt. Interessant, wenn Du die schnellstverfügbare Hardware als "Schrott" abstempelst. Sorry, aber so kann man Dich einfach nich ernst nehmen.
Mir wär auch nicht bekannt, dass hier irgendein User Entwicklungsarbeit für nvidia übernehmen würde.
Und Amd's shit wird natürlich momentan eher langsamer sein als die Spezialhardware von nVidia (welche wie eben erwähnt aber auch viel zu lahm), aber eben nicht proprietär
Doch - Auch AMDs Hardwarelösungen sind proprietär.
und wenn man mal irgendwann 12 Cpu cores und 24 Freds hat, dann können die wo sich gerade am langweilen sind evtl. damit beschäftigen und so Sachen
CPUs sind viel zu schwach für derlei Spielereien.
nVidia würde eher eine Spezial Cpu dafür verkaufen als es woanders laufen zu lassen
Weil es der schnellste Weg ist.
Sehe ich genauso. Es ist ja nicht so, als ob die Idee von spezialisierten Recheneinheiten die in der GPU nur einen Zweck erfüllen neu wäre. Die gehören heute einfach dazu, und so wird es denke ich auch mit den RT Cores werden.
Genau so sieht es aus. Ich muss schon ein wenig schmunzeln, wenn man hier immer wieder liest, dass einige der absoluten Überzeugung sind, nur multi- purpose Einheiten auf ihren Dies zu haben.
In ein paar GPU Generationen wird es als ganz selbstverständlich angesehen werden, dass ein Teil der Chipfläche zur Beschleunigung der Raytracing Berechnungen verwendet wird.
Ich möchte auch gerne mal in den Raum werfen, dass GPU Renderer immer wichtiger werden, der Markt der GPU Renderfarmen wächst. Und beim GPU Rendering liegt der Leistungszuwachs durch die RT Cores bei weit mehr als den 10% die sie an Chip Fläche kosten.
Genau so sieht es aus.
Es ist natürlich schwer zu sagen wie hoch der Leistungszuwach im Rendering nun genau ist, da es stark auf die zu rendernde Szene ankommt. Wird prozentual ein hoher Anteil der Rechenzeit ins Raytracing investiert dann ist auch der Zuwachs durch die RT Cores entsprechend groß.
Das BHV Traversal wird ungefähr um den Faktor 20 beschleunigt.
Bereits aus dem Stegreif hätte ich (dir) sagen können, dass Havok als Phsyik Bibliothek in Games mindestens (!) genau so häufig zum Einsatz kommt wie PhsyX.
Du verfehlst gerade das Thema. Wieso sollte neben PhysiX nicht auch noch eine zweite Physik Engine erfolgreich sein dürfen? Darum gehts doch hier garnicht.
Physik X ist auch kein Erfolg für Nvidia.
Ganz im Gegenteil, Phys X auf GPU-Basis ist tot, und wird überall "nur" per CPU umgesetzt.
Aha- Und was ändert das jetzt daran, dass die Bibliothek massenhaft verbreitung findet?
Für mich ist der AMD Ansatz auch der, der einer größeren Logik folgt. Für mich sind reine RT Einheiten, die sonst im Game quasi nix können, auch sinnlose Platzverschwendung.
Man kann die RT Einheiten für alle Arten strahlenbasierter Berechnungen Einsetzen. Sound, Deckungs-/Treff-/Sichtungssysteme von Gegnern, Beschleunigung von Octree-/Voxeltechnik.
Und sicherlich noch einiges mehr. Die Technik muss sich halt erstmal genauso entwickeln dürfen wie Rastergrafik.
LG
Zero