Du weisst schon, ... bla bla
Tja- Mit Deinem Beitrag hast Du nun das Gegenteil von dem erreicht, worauf Du eigentlich abgezielt hast
Deshalb ist es immer gut sich vorher zu informieren, bevor man einer Sache oder jemandem an den Karren fahren will.
Dass PhysX gescheitert ist, ist ein weiterer "urban myth", der sich wohl ewig in den Foren halten wird.
Nichts fü ungut,
Zero
Was soll der Bullshit? Ein großen Teil oder Großteil ist dasselbe, nur anders formuliert .
Wenn gerade einmal 8-9% der gesamten Chipfläche für dich schon viel ist, brauchen wir nicht weiter zu diskutieren. Dämliche Haarspalterei.
Durch den Wechsel auf 7 und später 5 nm kein Problem.
Es geht um die überdramatisierte Formulierung von Phil. "Einen Großteil des Chips" machen die RT- und Tensor Cores eben nicht aus, basierend auf aktuellen Schätzungen sind es ca. 20% mehr pro Shader-Cluster. Auf den gesamten Chip gesehen, sind das vielleicht 8-9%.
Hier ein kleiner Link zu Deinem "Bullshit":
Duden | Grossteil | Rechtschreibung, Bedeutung, Definition, Herkunft
Bedeutung Großteil: "größerer Teil, Hauptteil"
Was ein großer Teil ist, habe ich jetzt mal nicht "gegoogled", das musst Du ggf. selber machen...
CPU-PhysX war nie irgendwo "exklusiv", das steckte afaik in jedem Unreal-Engine 3-Spiel drin. Und die gibt's seit 2006.ja ich weis das physx „fast“ überall vertreten ist und das ist auch gut so. Was ich sagen wollte damit am anfang war das auch nur NVIDIA „exklusiv“ und jetzt ist es überall drin ohne das ein Hahn nach kräht.
Ich glaube du hast da was nicht ganz verstanden. Übrigens ist es keine Frage OB sich Raytracing gegen Rasterisierung oder schlicht als breit genutze Hybridversion durchsetzt sondern "wann". Das ist auch nicht erst seit Gestern klar sondern seit den Anfängen von CGI.
Schon damals hat Amd versucht die sch...e zu retten, nun bei RTX das gleiche ....
https://www.pcgameshardware.de/Graf...0/News/Freie-Software-als-Wunderwaffe-696310/
Les die News mal komplett und nicht nur die Headline, die 22% beziehen sich auch hier auf einen einzelnen Shader-Cluster. Auf den gesamten DIE gesehen, macht das am Ende einen "hohen einstelligen Betrag" aus laut 3DCenter - also 8 bis 9%.22% der Die-Fläche werden für Tensor-, und RT-Cores bei Nvidia benötig, oder grob geschrieben 1/4 der Fläche.
Hardware- und Nachrichten-Links des 4. Maerz 2019 | 3DCenter.orgWirklich perfekte Zahlen zur Größe der Shader-Cluster der Turing-Chips erhält man damit noch nicht (das Ergebnis auf TPC-Basis sollte der Realität allerdings schon recht nahe sein), allerdings gibt es zumindest eine Antwort zur Frage der Flächendifferenz für RT- & Tensor-Cores: Beim Vergleich auf GPC-Basis sind dies nur 14% – logischerweise etwas verwässert durch den jeweils gleichlautenden Anteil der Raster-Engine. Beim Vergleich auf TPC-Basis sind dies hingegen 20% mehr Chipfläche, welche RT- & Tensor-Cores innerhalb der Shader-Cluster für sich beanspruchen. Eingedenk dessen, das heutige Grafikchips weniger als die Hälfte ihrer Chipfläche für die Shader-Einheiten selber verwenden, ist der Effekt der Hinzunahme von RT- & Tensor-Cores zur Turing-Architektur somit grob auf einen hohen einstelligen Betrag der gesamten Chipfläche zu schätzen. Dies ist weit weniger, als teilweise vermutet worden war und auch als nVidias Schaubilder suggerieren. Vielleicht wäre sogar unter der eigentlich für Turing geplanten 10nm-Fertigung von Samsung mehr möglich gewesen – unter der aktuellen 12nm-Fertigung als nur leicht verbessertem 16nm-Derivat konnte sich nVidia jedenfalls keine größere RT- und Tensor-Einheiten leisten, die Turing-Chips sind schließlich auch so schon übermäßig groß ausgefallen.
...
Also ich finde den Ansatz von AMD auch vielversprechend.
Lieber viele nicht so leistungsstarke Einheiten auf den Chip pressen, die dann aber mehrere Aufgaben übernehmen können, als ein paar wenige, die nur für eine Sache zuständig sind.
Für mich erscheint das die gleiche Vorgehensweise zu sein, wie vor einigen Jährchen mit der Zusammenverlegung der zwei Shadertypen.
Die waren ja auch einzeln super leistungsstark, konnten sicha ber nicht aushelfen, und so kam es zu brachliegender Rohleistung.
Sollte es also möglich sein, durch Nichtnutzenwollen von Raytracing in einem Spiel dafür mehr Power für Standardkost zu haben, das wäre doch was!
Oder dass quasi alle Recheneinheiten ihren Beitrag für Raytracing beitragen können, auch wenn deren Effektivität gerin(er) ist.
Ich lasse mich gerne überaschen, was da so entwickelt wird.
Jedenfalls ist die derzeitige Lösung von NVidia relativ ineffektiv, was die Ausnutzung von der Chipfläche anbelangt.
Man sieht es daran, dass trotz maximal 30% mehr Leistung solche Wahnsinnschipdesigns herausgekommen sind.
Das ist vor allem teuer für den Kunden.
Auf diese "alte" News (März 2019 btw) beziehe ich mich. Er gibt nur eine Schätzung ab weil es ohne umfassende Einblicke in die Architektur eben nicht genauer geht, was anderes als schätzen ist nicht möglich. 8, 9 oder selbst 10% sind enorm wenig für das, was die RT- und Tensor Cores ermöglichen - insbesondere die RT Cores. Bei umfassender Nutzung von RT ist der Geschwindigkeitszuwachs massiv für derart wenig Chipfläche.matty2580 schrieb:Ich finde nur diese alte News hier dazu aus dem 3dcenter.
Und da traut sich selbst Leo nicht an eine Prozentzahl heran, da er nicht dass genaue Verhältnis zwischen Shader Cluster und anderen Komponenten auf dem Die kennt.
Aber selbst wenn es "nur" 10% sind, ist dass immer noch "viel" Die-Fläche, die nur wenige grafische Effekte, oft verbunden mit deutlich geringerer Auflösung, ermöglichen.
Sehe ich genauso. Es ist ja nicht so, als ob die Idee von spezialisierten Recheneinheiten die in der GPU nur einen Zweck erfüllen neu wäre. Die gehören heute einfach dazu, und so wird es denke ich auch mit den RT Cores werden. In ein paar GPU Generationen wird es als ganz selbstverständlich angesehen werden, dass ein Teil der Chipfläche zur Beschleunigung der Raytracing Berechnungen verwendet wird.8, 9 oder selbst 10% sind enorm wenig für das, was die RT- und Tensor Cores ermöglichen - insbesondere die RT Cores. Bei umfassender Nutzung von RT ist der Geschwindigkeitszuwachs massiv für derart wenig Chipfläche.