Raytracing: AMD patentiert eigene Texturprozessor-Technologie

@Zero

ja ich weis das physx „fast“ überall vertreten ist und das ist auch gut so. Was ich sagen wollte damit am anfang war das auch nur NVIDIA „exklusiv“ und jetzt ist es überall drin ohne das ein Hahn nach kräht. Das amd sich auch mit rt beschäftigt ist ja bekannt aber der Weg ist ein anderer wie bei Nvidia, was ich erstmal begrüße. Was sich hinterher durchsetzen wird muss sich erst noch zeigen, aber ich denke amd ist hier etwas im Vorteil mit den next gen Konsolen.
wenn es soweit ist wird auch dieses Feature irgendwann „normal“ sein wie alles andere vorher auch. Ich könnte mir auch gut vorstellen das für navi noch etwas Softwareseitiges hinterher geschoben wird nur um up to Date zubleiben, wir werden es sehen.
 
Du weisst schon, ... bla bla
Tja- Mit Deinem Beitrag hast Du nun das Gegenteil von dem erreicht, worauf Du eigentlich abgezielt hast ;)
Deshalb ist es immer gut sich vorher zu informieren, bevor man einer Sache oder jemandem an den Karren fahren will.

Dass PhysX gescheitert ist, ist ein weiterer "urban myth", der sich wohl ewig in den Foren halten wird.

Nichts fü ungut,
Zero

Und was kann nVidia dafür dass physx gut ist, oder ein Standart?
Sie haben es aufgekauft und monopolisiert, dass es nun Open Source ist bedeutet wahrscheinlich nur dass es mittlerweile wirklich so rein gar keinen Sinn mehr macht ...



Schon damals hat Amd versucht die sch...e zu retten, nun bei RTX das gleiche ....

https://www.pcgameshardware.de/Graf...0/News/Freie-Software-als-Wunderwaffe-696310/
 
Was soll der Bullshit? Ein großen Teil oder Großteil ist dasselbe, nur anders formuliert :schief:.

Wenn gerade einmal 8-9% der gesamten Chipfläche für dich schon viel ist, brauchen wir nicht weiter zu diskutieren. Dämliche Haarspalterei.


Durch den Wechsel auf 7 und später 5 nm kein Problem.

Selbst wenn es "nur" ca. 10% der Chipfläche sind...wobei das ja nicht alles ist, denn die Tensors für DLSS fressen ja auch Platz...
Für ein schwaches Hybrid-RT in FHD, wobei derzeit die Entscheidung in Spielen, ob etwas Licht(Reflexionen), oder Schatten nötig ist, denn für beides gleichzeitig in noch spielbaren FPS reicht es nicht, dann ist das schon eine Menge...

Für "Mehr", und vor allem in höherer nativer Auflösung, würde man wesentlich mehr "Platz" benötigen, auch in 5nm...

mfg
 
Es geht um die überdramatisierte Formulierung von Phil. "Einen Großteil des Chips" machen die RT- und Tensor Cores eben nicht aus, basierend auf aktuellen Schätzungen sind es ca. 20% mehr pro Shader-Cluster. Auf den gesamten Chip gesehen, sind das vielleicht 8-9%.

Was heißt hier "überdramatisiert"? Bezugspunkt wahren wohl nicht der von Dir so herzig und überaus substantiiert spekulierte Anteil an Chipfläche / Transistorenanzahlt (?) sondern der Anteil an der Preissteigerung und dem Verkaufsgrund gegenüber der vorherigen Gen. War da noch irgendetwas außer dieser praktisch sehr mäßigen Zweitverwertung von HPC-Ballast namens RT-Tensor-Bla? :hmm:

Hier ein kleiner Link zu Deinem "Bullshit":

Duden | Grossteil | Rechtschreibung, Bedeutung, Definition, Herkunft
Bedeutung Großteil: "größerer Teil, Hauptteil"

Was ein großer Teil ist, habe ich jetzt mal nicht "gegoogled", das musst Du ggf. selber machen...

Recht so! Schließlich haben wir hier keinen Bildungsauftrag, um irgendwelchen Leutchen etwas vorzukauen. Das sollten die mal besser lernen selber zu machen. :lol:
 
Zuletzt bearbeitet:
ja ich weis das physx „fast“ überall vertreten ist und das ist auch gut so. Was ich sagen wollte damit am anfang war das auch nur NVIDIA „exklusiv“ und jetzt ist es überall drin ohne das ein Hahn nach kräht.
CPU-PhysX war nie irgendwo "exklusiv", das steckte afaik in jedem Unreal-Engine 3-Spiel drin. Und die gibt's seit 2006.
Das GPU-basierte PhysX ist komplett anders, den kannst du mit dem Codeteil für die CPU nicht vergleichen.^^
 
Ich glaube du hast da was nicht ganz verstanden. Übrigens ist es keine Frage OB sich Raytracing gegen Rasterisierung oder schlicht als breit genutze Hybridversion durchsetzt sondern "wann". Das ist auch nicht erst seit Gestern klar sondern seit den Anfängen von CGI.

Ich habe das sehr wohl verstanden, werter Mentor501, da ich Raytracing beruflich mutmaßlich schon länger benutze als die meisten Forumsteilnehmer hier Mitglied sind...

Wir schauen einfach mal, was sich im Daddelbereich so ergibt.

Nur so viel, es ist qualitativ noch ein sehr langer Weg bis dahin, was wir in der Architektur und Städtebau jetzt schon brauchen und quasi täglich Brot ist.
 
22% der Die-Fläche werden für Tensor-, und RT-Cores bei Nvidia benötig, oder grob geschrieben 1/4 der Fläche.
https://www.pcgameshardware.de/Gefo...ollen-Chip-um-22-Prozent-vergoessern-1279431/
Das ist nicht so viel wie einige vorher vermutet haben, aber auch nicht wenig Fläche.

Zum Thema RT ohne extra Hardware dafür, muss es wenigstens ein Spiel, oder eine halbwegs brauchbare Demo geben, damit man dass vergleichen kann.

Abgesehen davon wird ein Spiel durch grafische Effekte nicht wirklich besser.
Ich hole mit jetzt gleich Mario Kart und Pokemon Let`s go Evoli aus dem Saturn ab, und die machen komplett ohne RT auch viel Spass.
So lange RT nur ein Gimmick ist, was die Chips dahinter verteuert, und nur in wenigen Spielen angewendet wird, muss man da nicht so einen Hype drum machen.
 
Bei RT geht es nicht nur um die Chipfläche, die Verteilung auf dem Die spielt auch ne Rolle. Bei zu vielen defekten RT Einheiten ist doch ein Chip hin. Für den Fall bedarf es Redundanzen, die brauchen ebenso Platz.
Ich will gar nicht wissen, wie viele Chips Nvidia wegschmeißt, wenn ein zu großer Teil beschädigt wird. Zu allem Überfluss haben sie bis zuletzt drei Chips für 3 Grafikkarten hergestellt.
 
Voll interessantes Thema. Aber warum bashen sich gleich alle, huh? Ich fand den Beitrag eher lustig, nachdem quasi jeder im letzten Jahr durch NV eine Raytracing Abhandlung als Lehrstunde reingeballert bekommen hat, schreibt PCGH in einem Beitrag "Laut Wikipedia..." Alles klar :D

Ich finds erstmal nur interessant weil es bei den Konsolen mehr oder weniger (eher mehr, weil konkret) hieß, RT kommt! Und dann sitzt man da, z.B. E3, und denkt - ok wo? Jetzt tut sich zumindest ein bissl mal was. Für in die Zukunft gedacht glaube ich, das die jetzt noch stolz als extra ausgewiesenen RT Cores nach und nach "verschwinden", weil irgendwann regulär / wie selbstverständlich integriert. Ich denke auch das AMD mit einer Hybrid-oder-sonst-was Lösung ähnlich nachziehen wird, die nächste GPU Gen vllt schon (nach Navi), wer weiß. Nur weil es auf Konsolen möglich ist, heißt es nicht, das es auch aufm PC möglich ist in der selben Form.

Weil man kann ja von NV halten was man möchte, die erfinden ja nicht einfach extra RT Cores für diese Art von Berechnungen wegen nix und wieder nix, und um uns die Kohle abzuknöpfen. Das machen die auch so. D.h. den Leistungssprung mit RT, den gibts weiterhin erstmal nicht. Und wenn bei AMD eine Art von Hybrid-RT quasi emuliert wird (das war das was mir als erstes bei dem Patent einfiel), dann wird das für die allg. Performance bestimmt auch nicht der mega Knüller.

Trotzdem, spannend. RT ist vllt wie Rom, viele Wege usw... :)
 
22% der Die-Fläche werden für Tensor-, und RT-Cores bei Nvidia benötig, oder grob geschrieben 1/4 der Fläche.
Les die News mal komplett und nicht nur die Headline, die 22% beziehen sich auch hier auf einen einzelnen Shader-Cluster. Auf den gesamten DIE gesehen, macht das am Ende einen "hohen einstelligen Betrag" aus laut 3DCenter - also 8 bis 9%.
 
Wirklich perfekte Zahlen zur Größe der Shader-Cluster der Turing-Chips erhält man damit noch nicht (das Ergebnis auf TPC-Basis sollte der Realität allerdings schon recht nahe sein), allerdings gibt es zumindest eine Antwort zur Frage der Flächendifferenz für RT- & Tensor-Cores: Beim Vergleich auf GPC-Basis sind dies nur 14% – logischerweise etwas verwässert durch den jeweils gleichlautenden Anteil der Raster-Engine. Beim Vergleich auf TPC-Basis sind dies hingegen 20% mehr Chipfläche, welche RT- & Tensor-Cores innerhalb der Shader-Cluster für sich beanspruchen. Eingedenk dessen, das heutige Grafikchips weniger als die Hälfte ihrer Chipfläche für die Shader-Einheiten selber verwenden, ist der Effekt der Hinzunahme von RT- & Tensor-Cores zur Turing-Architektur somit grob auf einen hohen einstelligen Betrag der gesamten Chipfläche zu schätzen. Dies ist weit weniger, als teilweise vermutet worden war und auch als nVidias Schaubilder suggerieren. Vielleicht wäre sogar unter der eigentlich für Turing geplanten 10nm-Fertigung von Samsung mehr möglich gewesen – unter der aktuellen 12nm-Fertigung als nur leicht verbessertem 16nm-Derivat konnte sich nVidia jedenfalls keine größere RT- und Tensor-Einheiten leisten, die Turing-Chips sind schließlich auch so schon übermäßig groß ausgefallen.
Hardware- und Nachrichten-Links des 4. Maerz 2019 | 3DCenter.org

Ich finde nur diese alte News hier dazu aus dem 3dcenter.
Und da traut sich selbst Leo nicht an eine Prozentzahl heran, da er nicht dass genaue Verhältnis zwischen Shader Cluster und anderen Komponenten auf dem Die kennt.
Aber selbst wenn es "nur" 10% sind, ist dass immer noch "viel" Die-Fläche, die nur wenige grafische Effekte, oft verbunden mit deutlich geringerer Auflösung, ermöglichen.

In der PCGH News ist ja auch eine Tabelle, die gut zeigt wie viel kleiner entsprechende Dies ohne Tensor-, und RT-Cores wären.
https://www.pcgameshardware.de/Gefo...ollen-Chip-um-22-Prozent-vergoessern-1279431/

Wie geschrieben, ich muss jetzt los und will die Games vom Saturn abholen, die auch ohne RT-Effekte viel Spass machen werden. ^^
 
Zuletzt bearbeitet:
Endlich mal etwas handfestes zu Raytracing bei AMD :) Klingt ja sehr spannend (nicht das ich das umfassend verstehen würde) und wird hoffentlich bei der Next Gen zu finden sein.
Welcher Ansatz letztendlich besser sein wird werden wir sehen. Ich hoffe nur das man in Zukunft mehr Spiele mit Raytracing zu sehen bekommt :daumen:
 
Keiner hat hier in den kommentaren wirklich plan von raytracing aber alle labern drauf los und erklären was da und da auf sich womit hat bla bla , einige im forum sind ja weiter mit Raytracing als AMD und NV zusammen hahaha
 
Na also. Raytracing in ordentlich umgesetzt geht somit doch - für alle auf jeder Hardware.
 
...

Also ich finde den Ansatz von AMD auch vielversprechend.
Lieber viele nicht so leistungsstarke Einheiten auf den Chip pressen, die dann aber mehrere Aufgaben übernehmen können, als ein paar wenige, die nur für eine Sache zuständig sind.
Für mich erscheint das die gleiche Vorgehensweise zu sein, wie vor einigen Jährchen mit der Zusammenverlegung der zwei Shadertypen.
Die waren ja auch einzeln super leistungsstark, konnten sicha ber nicht aushelfen, und so kam es zu brachliegender Rohleistung.
Sollte es also möglich sein, durch Nichtnutzenwollen von Raytracing in einem Spiel dafür mehr Power für Standardkost zu haben, das wäre doch was!
Oder dass quasi alle Recheneinheiten ihren Beitrag für Raytracing beitragen können, auch wenn deren Effektivität gerin(er) ist.
Ich lasse mich gerne überaschen, was da so entwickelt wird.
Jedenfalls ist die derzeitige Lösung von NVidia relativ ineffektiv, was die Ausnutzung von der Chipfläche anbelangt.
Man sieht es daran, dass trotz maximal 30% mehr Leistung solche Wahnsinnschipdesigns herausgekommen sind.
Das ist vor allem teuer für den Kunden.

Das Problem bei so universal Bauteilen oder teil-optimierten Bauteilen ist das dort die Leistung geringer ist. Man kann z.B. alles über die CPU machen, ist dann aber halt super langsam. Lässt man optimiertes RT auf der GPU komplett über die Shader laufen wie z.B. bei Pascal ist das auch noch zu langsam. Die Optimierung über dedizierte RT Cores laufen zu lassen ist aktuell das schnellste/effektivste was in Richtung RT geht. Man darf nicht vergessen wie Anspruchsvoll RT ist. Vergleicht man z.B. die 1080ti mit der 2080 in Metro Exodus liegt das irgendwas um den Faktor 4 zwischen den FPS, Faktor 10 wenn man zusätzlich DLSS nutzt. In Bezug auf RT ist das alles andere als ineffektiv.

Was AMD vor hat macht aber aktuell Sinn, da noch wenig RT in Spielen genutzt wird (sowohl pro Spiel als auch Anzahl der Spiele). Etwas Leistung wird aber auch bei AMDs Lösung brach liegen, da die Texturprozessoren zwar flexibler aber nicht so flexibel wie Shader sein werden. Wenn RT in größerem Umfang genutzt werden soll, müssen die Texturprozessoren sich in Richtung RT Cores entwickeln was für AMD wahrscheinlich nicht das große Problem sein sollte. Es geht erstmal um ein Patent was flexibel von reiner Softwarelösung hin zur reinen Hardwarelösung funktionieren kann. Mal gucken wie die erste Generation dieser Texturprozessoren ausschaut und wie flexibel diese wirklich sind und wie Nvidias nächste Generation von RT Cores ausschaut. Ob man das mit den Unified Shadern vergleichen kann kommt darauf an wie schnell AMDs Lösung im Vergleich zu Nvidias ist.
 
matty2580 schrieb:
Ich finde nur diese alte News hier dazu aus dem 3dcenter.
Und da traut sich selbst Leo nicht an eine Prozentzahl heran, da er nicht dass genaue Verhältnis zwischen Shader Cluster und anderen Komponenten auf dem Die kennt.
Aber selbst wenn es "nur" 10% sind, ist dass immer noch "viel" Die-Fläche, die nur wenige grafische Effekte, oft verbunden mit deutlich geringerer Auflösung, ermöglichen.
Auf diese "alte" News (März 2019 btw) beziehe ich mich. Er gibt nur eine Schätzung ab weil es ohne umfassende Einblicke in die Architektur eben nicht genauer geht, was anderes als schätzen ist nicht möglich. 8, 9 oder selbst 10% sind enorm wenig für das, was die RT- und Tensor Cores ermöglichen - insbesondere die RT Cores. Bei umfassender Nutzung von RT ist der Geschwindigkeitszuwachs massiv für derart wenig Chipfläche.
 
Ich finde es voll ok so viel wie auch immer an Chipfläche dafür herzugeben. Aber wenn Sie dann doch merken dass sogar Ihre sch...s Ti zu lahm dafür ist... sorry die Spiele nutzen ja alle nur ein bisschen Rt und dann ist da noch ein drittel Frames übrig, was soll der Quatsch? Ihre Technik ist momentan Schrott und die User sollen die Entwicklungsarbeit leisten! WENN man sich momentane Leistungszuwächse bei Grakas anschaut, würde ich jetzt mal Raten dass evtl. in 5-10 Jahren Triple Aaa Titel mit komplett oder arg viel Rt kommen... vorher hat das Gimmickstatus, mich flasht dass nicht die Bohne momentan.

Und Amd's shit wird natürlich momentan eher langsamer sein als die Spezialhardware von nVidia (welche wie eben erwähnt aber auch viel zu lahm), aber eben nicht proprietär und wenn man mal irgendwann 12 Cpu cores und 24 Freds hat, dann können die wo sich gerade am langweilen sind evtl. damit beschäftigen und so Sachen ... nVidia würde eher eine Spezial Cpu dafür verkaufen als es woanders laufen zu lassen :P
 
8, 9 oder selbst 10% sind enorm wenig für das, was die RT- und Tensor Cores ermöglichen - insbesondere die RT Cores. Bei umfassender Nutzung von RT ist der Geschwindigkeitszuwachs massiv für derart wenig Chipfläche.
Sehe ich genauso. Es ist ja nicht so, als ob die Idee von spezialisierten Recheneinheiten die in der GPU nur einen Zweck erfüllen neu wäre. Die gehören heute einfach dazu, und so wird es denke ich auch mit den RT Cores werden. In ein paar GPU Generationen wird es als ganz selbstverständlich angesehen werden, dass ein Teil der Chipfläche zur Beschleunigung der Raytracing Berechnungen verwendet wird.
Ich möchte auch gerne mal in den Raum werfen, dass GPU Renderer immer wichtiger werden, der Markt der GPU Renderfarmen wächst. Und beim GPU Rendering liegt der Leistungszuwachs durch die RT Cores bei weit mehr als den 10% die sie an Chip Fläche kosten. Zumindest dort lohnt es sich also auf jeden Fall jetzt schon auf ein paar Cuda Cores zu verzichten und die Fläche lieber in RT Cores zu investieren.
Es ist natürlich schwer zu sagen wie hoch der Leistungszuwach im Rendering nun genau ist, da es stark auf die zu rendernde Szene ankommt. Wird prozentual ein hoher Anteil der Rechenzeit ins Raytracing investiert dann ist auch der Zuwachs durch die RT Cores entsprechend groß. Wenn es aber eine extrem Shader intensive Szene ist, dann bringen die RT Cores natürlich kaum was da sie nur beim Raytracing helfen. Durchschnittlich kann man so mit 20-40% Ersparniss bei der Renderzeit rechnen durch 10% mehr Chipfläche. Klingt für mich nach einem guten Deal.
 
Zuletzt bearbeitet von einem Moderator:
Zurück