Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Die ganzen Hater wieder mit Schaum vorm Mund und Schnappatmung :lol:

Schonmal überlegt was AMD alles anbietet? Ich geb nen Tipp: CPUs + GPUs & ein Mix: APUs, mit denen man sogar gescheit zocken kann (Hat/Kann Intel auch, aber momentan, naja. Vllt wenn die GPUs fertig sind, und sich bewährt haben)
Sicherlich meint der AMD-Mitarbeiter eine APU, also AMD´s Tensor Core Äquivalent auf einen Ryzen/Threadripper per IF (oder Nachfolger) geklatscht und das dann entweder durch Vulkan/DX oder per Treiber aktivieren.

Dürfte zwar ebenfalls noch ein weilchen dauern, aber unmöglich ist es nicht
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Es ist mir bisher noch immer komplett schleierhaft, wie das funktionieren soll.

Andererseits ist es, wie es Nvidia umgesetzt hat, extrem suboptimal. Werden die Tensor Cores nicht genutzt, ist viel Die-Fläche komplett nutzlos. Man muss also viel mehr Chip bezahlen, als man tatsächlich nutzt.
Und bis auf Echtzeit-Raytracing sehe ich leider auch keinen Anwendungsfall, wo diese Tensor Cores irgendwie für Privatpersonen nützlich sein könnten.

Es wäre sehr schön, wenn AMD irgendeine bessere Lösung dafür fände, als so viel Die zu verschwenden. Durch das Infinity Fabric müsste es aber langfristig immerhin kein Problem darstellen, eine schnelle Kommunikation zwischen GPU und CPU herzustellen.

Edit: Es wäre auch besonders schön, wenn man FP32 zum Berechnen benutzen könnte, da das Raytracing von Nvidia aktuell qualitativ nicht besonders scharf ist...
Spezifiziere mal was viel Die-Fläche für dich darstellen? 5%, 10%, 15%, 20%, 50%?

Tensor Cores können in sehr vielen Bereichen vorkommen, als aktuell prominentest Beispiel treffen Denoising-Algorithmen für RayTracing auf oder das ausführen von trainierten AI-Netzwerken für die Kantenglättung.
Und im Prinzip könntest du viele unterschiedliche AI-Netzwerke berechnen lassen, z.B. für NPC-Systeme in Spielen.
Es gibt übrigens bald auch einen DX-Standard dazu, welcher auf hardwarespezifische Funktionen fußen kann, DirectML.
Rein was die Zukunft angeht wird der Konsument sehr viel AI-Zeug in der Zukunft haben, es gibt auch soviele Bildbearbeitungsalgorithmen die dank AI-Netzwerken praktisch Magie rausspucken, bei der Rekonstruktion oder Schärfung von Bildinhalten.
Viele Handy-SoC haben mittlerweile dedizierte Prozessoren, die sich um die AI-Beschleunigung kümmern und für unterschiedliche Anwendungsfälle ausgenutzt werden.

Aus Marktperspektive ist die Integration in die Produkte aber wichtig, für Privatpersonen könntest du wohl kaum AI-Prozessoren oder Raytracing-Beschleunigungskarten separat verkaufen und eine Marktrelevanz erwarten.
In der ein oder anderen Form muss das integriert werden und entsprechend die Fläche dafür bezahlt werden, egal wie die Implementierung genau aussieht.

Und die Qualität bei den Raytracing-Ergebnissen hängt von der Menge an Rays ab, welche man berechnen kann, sind es zu wenige gibt es Bildrauschen, dass hat aber nichts mit der Präzision der Berechnung zu tun, du hast genau so Bildrauschen mit FP32.
Hier können Denoising-Algorithmen sehr helfen, die Bildqualität zu erhöhen, wofür Nvidia auch Algorithmen anbietet, welche über Tensor-Cores beschleunigt werden.
DICE hat aber z.B. bei BFV hat einen eigenen Algorithmus verwendet, welcher über die normalen Shader-Cores läuft, wird dann vermutlich mehr Zeit benötigen, spart aber immer noch massiv Leistung, anstatt die erforderliche Menge an Rays direkt zu berechnen.

"Hervorragend" ganz sicher nicht. Es hat einen Grund, warum CPU-PhysX deutlich simpler als vollwertiges PhysX für GPUs ist. Die Performance ist auch heute alles andere als toll, wenn die CPU in die Presche springt. Kannst in Batman Arkham Knight ja mal PhysX per CPU erzwingen ...
Das kommt auf den Simulationstyp an, CPU-PhysX wird pro Jahr bei hunderten Spielen verwendet und für einige Algorithmen eignen sich GPUs nicht, weswegen das lieber auf den CPUs berechnet wird.
Andersherum gibt es natürlich Dinge, die sich sehr für eine GPU anbieten und wo dann eine CPU nicht mehr mithalten kann.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Spezifiziere mal was viel Die-Fläche für dich darstellen? 5%, 10%, 15%, 20%, 50%?

Tensor Cores können in sehr vielen Bereichen vorkommen, als aktuell prominentest Beispiel treffen Denoising-Algorithmen für RayTracing auf oder das ausführen von trainierten AI-Netzwerken für die Kantenglättung.
Und im Prinzip könntest du viele unterschiedliche AI-Netzwerke berechnen lassen, z.B. für NPC-Systeme in Spielen.
Es gibt übrigens bald auch einen DX-Standard dazu, welcher auf hardwarespezifische Funktionen fußen kann, DirectML.
Eben. Es schlummert hier sehr viel Potential. KI, Physik, Grafik...
Ich hoffe, dass sich speziell im Bereich KI und Physik in Spielen bald mal wieder was tut, hier sind wir seit den frühen 2000er Jahren nur wenig weitergekommen (Nvidia schon, aber aufgrund des proprietären Ansatzes von GPU PhysX kommt im allgemeinen wenig bei Spielen an, weil es nicht allgemeingültig in die Entwicklung einfließen kann).

Und wie schon bei meinem Beispiel auf Seite 2 oder vor 2-3 Wochen erwähnt: bei modernen Threadripper-Systemen langweilen sich eh die Kerne. Was, wenn ich fürs Arbeiten (aber auch fürs Spielen) mir ein 16 oder gar 32 Kern TR System besorge (oder, weil ich doof bin mir gleich ein Dual Socket Epyc System) und dann auch noch spiele drauf. Dann steht da ausgesprochen viel Leistung "rum" die ich für Raytracing sehr wohl nutzen kann (sofern die Kommunikation zwischen der Ray-Erzeugung und dem Denoising per GPU gut funktioniert)
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

interessant, mich würde interessieren ob es ausschließlich auch auf der cpu berechnet werden kann?
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

@drstoecker
Das ist anhang der japanischen Übersetzung etwas schwierig zu sagen; aber es spricht prinzipiell nichts dagegen - außer vielleicht der Leistung ;) Denkbar wäre imho z.B. eine Kombination aus Lichtstrahlen niedriger und hoher Qualität: Wie im Artikel erwähnt ist, lässt sich die einzelne Strahlenfindung nicht parallelisieren. Das ist z.B. bei transparenten Materialien wie Gläsern ein Problem, da hier eine gewisse Anzahl an Bounces vorausgesetzt ist. Das könnte dann evtl die CPU übernehmen, während die GPU die vielen normalen Diffuse-Rays berechnet.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Es wäre sehr schön, wenn AMD irgendeine bessere Lösung dafür fände, als so viel Die zu verschwenden.
Vielleicht als Steckmodul. Man/AMD könnte die nächste GPU-Generation um einen "Bus" ergänzen, der genug Bandbreite liefert, um eine Aufteilung zu erlauben. Man kauft zb. ganz normal eine Grafikkarte mit einem speziellen Steckplatz/Sockel, und kann diese Karte ganz normal nutzen. Will man dann (zb. 6-12 Monate) später Raytracing nutzen, könnte man das entsprechende (und vielleicht sogar aktuellere als die eigentliche Grafikkarte) RT-Modul kaufen, und auf die Graka stecken.

Ist das - zb. aus Platzgründen - nicht möglich, könnte man vielleicht so ähnlich wie seinerzeit mit den PhysX-Karten, spezielle Raytracing-Karten separat kaufen, in einen PCIe-Steckplatz (oder sogar extern >USB3.1?) stecken, und mit einem Kabel (optische HBW Datenübertragung?) mit der Grafikkarte verbinden. Eben ein System welches die Trennung von Raytracing und klassischer Berechnung erlaubt. Man hat so auf der Graka keine ggf. "unnötigen" Rechenkerne, die man vielleicht sogar gar nicht haben will, und könnte gleichzeitig Raytracing-Hardware getrennt von der GPU/Grafikkarte entwickeln/kaufen/einsetzen.

Es gäbe zumindest in der Theorie zahlreiche sinnvollere Möglichkeiten, als aktuell bei der RTX im Einsatz ist. Hier hat man mit jeder größeren GPU mehr RT-Leistung, kann also gar nicht zb. die RT-Leistung der 2080Ti mit einer 2070 kombinieren. Gerade wo der Rasterizing-Part einer RTX immer dann seine Leistung reduzieren muß, wenn die RT-/Tensorkerne arbeiten, damit man das Energiebudget nicht sprengt. Ergo werden selbst die klassischen Rechenwerke einer 2080Ti gebremst, wenn RT berechnet wird. Und da selbst die 2080Ti nicht genug RT-Leistung besitzt, würde es bzgl. Effizienz durchaus Sinn machen, die RT-/Tensorkerne einer 2080Ti auch mit einer 2080, oder sogar 2070 kombinieren zu können.

Eine neue (GPU/Graka) Schnittstelle könnte zukünftig auch direkt für andere Spezialisierungen genutzt werden. Raytracing, A.I., und wer weiß was da noch alles kommen kann/wird. Aber wer einfach nur spielen will brauch das alles nicht, ergo ist eine Verschmelzung nicht immer der sinnvollste Weg.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Schon 2009 konnte man Quake Wars in 720p mit 24 Intel Dunnington Cores mit ~30 fps berechnen. Diese Performance dürfte man heute mit einem Ryzen 2700X @ 4 GHz erreichen. Da geht Einiges mittels CPU. Und rein zufällig geht AMD in Richtung immer mehr Kerne.

Raytracing in Spielen III: Quake Wars mit Raytracing - Abschnitt: Das Performance-Problem - ComputerBase

Es kann gut sein, dass wir von AMD einen anderen Ansatz als Tensor Cores sehen.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Wenn die CPU die GPU entlastet und ray Aufgaben übernehmen könnte wäre das wohl ein kleine Revolution. Aktuell ist es doch nach wie vor so das es abseits spezieller Strategiegames kaum Spiele gibt die von mehr als 4 Cores profitieren. Spiegeln alle aktuellen Benchmarks wieder. Gerade bei hohen Auflösungen 3-4k mit hohen settings ist die GPU der Flaschenhals und jeder alte core i5 4kerner langweilt sich.
Die aktuellen AMD 8 Kerner mit 16 Threads können dabei leider noch keinen Vorteil bringen. Wenn man theoretisch die "überschüssigen" 12 Threads für GPU Berechungen nützen könnte wäre das genieal. Und non plus ultra, wenn dann noch die cpu integrierte vega grafikeinheit z.b. physik X etc. übernimmt wäre dann wahnsinns Grafiken möglich. Mal schauen ob Visionen je zur Realität werden. ;-)
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Ich hätte nichts dagegen, wenn Navi per xGMI an die CPU angebunden wird. Dann reicht vielleicht die Geschwindigkeit, um für Raytracing die CPU miteinzubeziehen...
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Klar sagt AMD dass, weil sie aktuell nichts im RT-Bereich vorweisen können.
Ein normaler CPU-Core kann doch niemals mit einem für RT spezialisierten Core mithalten.
Sieht man z.B. schön beim H.265-Codec.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Klar sagt AMD dass, weil sie aktuell nichts im RT-Bereich vorweisen können.
Ein normaler CPU-Core kann doch niemals mit einem für RT spezialisierten Core mithalten.
Sieht man z.B. schön beim H.265-Codec.
Raytracing Forschungspapers gibt's von AMD, Intel und Nvidia zuhauf. Jeder Hersteller ist da an irgendwas dran - seit zig Jahren.

Man kann es auch umgekehrt sehen. Was hat Nvidia nicht? Richtig, eine x86 Lizenz. Das Unternehmen stellt sich komplett anders auf als AMD und Intel. Die müssen jegliche Innovation über die GPU machen.

ARM können wir ausklammern, da das auf absehbare Zeit nicht die IPC der aktuellen x86 Architektur erreichen wird, weil Energie sparen im Vordergrund steht.

Daher ist es wenig verwunderlich, dass Nvidia jetzt mit Tensor Cores ankommt. Das muss deswegen noch lange nicht der heilige Gral sein. Aktuell geht 25% der Chip Fläche für ein Feature drauf, das entweder Raytracing Schatten oder Raytracing Spiegelungen in einem Triple A Spiel geradeso spielbar hinbekommt. Wenn man mal darüber nachdenkt, ist das geradezu dekadent.

Nvidia hätte mit einem 550mm² Chip die Rasterperformance der 2080Ti hinbekommen, denn die resultiert nur aus dem Mehr an Shadern und der Aufsplittung der Shader in INT und FP (und minimal vielleicht noch dem besseren Frontend). Deshab ist der Anstieg auch so inkonsistent zwischen 20 und 45%.

Der Rest sind Tensor Cores, die aktuell nur für Spielereien taugen.

Ein paar Schatten und Spiegelungen -> 1080p/60 auf einem 750mm² Chip für 1200 Euro.

DLSS ist nur Marketing. DF hat's verglichen. 1440p DLSS soll eine hochperformante Alternative zu 4K TAA sein. Ist es nicht. Es sieht kaum besser aus als upscaled 1440p. Um das zu kaschieren hat man die Infiltrator Demo genommen, die eine extrem niedrige Pixelschärfe hat. In der einzigen Szene der Demo, die feine Details zeigt (Stadtpanorama) sieht DLSS deutlich unschärfer als natives 4K aus, zeigt weniger Details und zudem noch Flimmerartefakte, die durch die Rekonstruktion verursacht werden.
 
Zuletzt bearbeitet:
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Mal schaun was da kommt, aber es besteht auch hier das Problem das RT sich durchsetzen muss und im Moment noch irgendwie unterwältigend ist... Mal schauen...
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Daher ist es wenig verwunderlich, dass Nvidia jetzt mit Tensor Cores ankommt. Das muss deswegen noch lange nicht der heilige Gral sein. Aktuell geht 25% der Chip Fläche für ein Feature drauf, das entweder Raytracing Schatten oder Raytracing Spiegelungen in einem Triple A Spiel geradeso spielbar hinbekommt. Wenn man mal darüber nachdenkt, ist das geradezu dekadent.

Nvidia hätte mit einem 550mm² Chip die Rasterperformance der 2080Ti hinbekommen, denn die resultiert nur aus dem Mehr an Shadern und der Aufsplittung der Shader in INT und FP (und minimal vielleicht noch dem besseren Frontend). Deshab ist der Anstieg auch so inkonsistent zwischen 20 und 45%.

Der Rest sind Tensor Cores, die aktuell nur für Spielereien taugen.
Also wäre Nvidias Perfomancezuwachs ohne RT Features wahrscheinlich deutlich höher gewesen.

Aber irgendeiner muß ja mal damit anfangen. Ich finde die Technik faszinierend und bin gespannt was da noch so alles kommt! Auch von AMD.:)
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Schon 2009 konnte man Quake Wars in 720p mit 24 Intel Dunnington Cores mit ~30 fps berechnen. Diese Performance dürfte man heute mit einem Ryzen 2700X @ 4 GHz erreichen. Da geht Einiges mittels CPU. Und rein zufällig geht AMD in Richtung immer mehr Kerne.

Also so, wie manche hier abdrehen, wenn sie hören, dass Raytracing auf FHD mit 60 Fps begrenzt, brauchst du wohl keinem mit 720p und 30 Fps kommen. Und dann reden wir hier von Quake Wars von Ende 2007. Ich glaube schon, dass spezialisierte Hardware nötig und sinnvoll ist.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Ich verstehe die Prämisse des Artikels nicht ganz. Ja, natürlich kann ich auf einr CPU auch Raytracing berechnen. Das ist mehr oder weniger die Definition einer CPU, sie KANN jede Berechnung durchführen. Aber da schon spezialisierte GPUs nur grenzwertig ausreichende Rechenleistung dafür bieten kann eine CPU hier nicht viel beisteuern.
Ebenso KANN ich eine Festplatte verwenden um fehlenden Hauptspeicher auszugleichen. Dass es um mehrere Größenordnungen langsamer ist und damit meist zu langsam sollte aber auch klar sein.

Etwas absurd wird es hier:
Jeder Pixel kann unabhängig berechnet werden, die Berechnungen pro gesendetem Lichtstrahl sind jedoch nicht parallelisierbar und somit bei hohem Rechenaufwand besser für Prozessoren als für Grafikkarten geeignet.
Inwiefern ist das denn relevant? Niemand würde auf die Idee kommen die Berechnung eines einzelnen Strahls zu parallelisieren da auch bei reduzierter Qualität mehrere Millionen Strahlen zu berechnen sind. Sprich es sind immer genügend Strahlen da um eine Parallelisierung hierüber zu gewährleisten.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Stellt sich die Frage wieviel mehr CPU Kerne man bräuchte, um RT auch ohne zusätzliche RTX Kerne zu ermöglichen.

Konnte damals schon mit einer Radeon PhysX aktivieren , wenn auch nur in mittleren Einstellungen...
 
Zuletzt bearbeitet:
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Stellt sich die Frage wieviel mehr CPU Kerne man bräuchte, um RT auch ohne zusätzliche RTX Kerne zu ermöglichen.

In Anbetracht der Daten die wir so haben (QW in 720p mit 30 Fps auf 24 Kernen), würde ich mal sagen ein paar Hundert bis Tausend. Aber eigentlich ist es nie die Lösung, irgendwas zur Beschleunigung auf die CPU zu verlagern. CPUs zeichnen sich durch den universellen Einsatzzweck und die hohe sequenzielle Leistung aus, die Rechenleistung ist aber insgesamt im Vergleich mit spezialisierter Hardware gering. Selbst bei GPUs, die ja heute auch schon recht flexibel sind.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

In Anbetracht der Daten die wir so haben (QW in 720p mit 30 Fps auf 24 Kernen), würde ich mal sagen ein paar Hundert bis Tausend. Aber eigentlich ist es nie die Lösung, irgendwas zur Beschleunigung auf die CPU zu verlagern. CPUs zeichnen sich durch den universellen Einsatzzweck und die hohe sequenzielle Leistung aus, die Rechenleistung ist aber insgesamt im Vergleich mit spezialisierter Hardware gering. Selbst bei GPUs, die ja heute auch schon recht flexibel sind.

Sehen wir ja dann
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Ich glaube nicht, auch wenn ich eine CPU mit 2x32 Kernen das RTX unterstützend rechnen lasse, dass es so einfach funktioniert.
Entweder ist die Umsetzung, das wirklich angepasst berechnet wird, schließlich werden ja die, wie bisher beanspruchten Kerne, auch noch gebraucht, bestimmt nicht so einfach. Die nächste für mich zu stellende Frage wäre, was soll den der Luxusspiele PC Kosten?
So lange das Ganze noch in den Kinderschuhen steckt, ist es absolut uninteressant . Die bisherigen Ansätze gefallen nur NVIDIA .
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Raytracing Forschungspapers gibt's von AMD, Intel und Nvidia zuhauf. Jeder Hersteller ist da an irgendwas dran - seit zig Jahren.

Man kann es auch umgekehrt sehen. Was hat Nvidia nicht? Richtig, eine x86 Lizenz. Das Unternehmen stellt sich komplett anders auf als AMD und Intel. Die müssen jegliche Innovation über die GPU machen.

ARM können wir ausklammern, da das auf absehbare Zeit nicht die IPC der aktuellen x86 Architektur erreichen wird, weil Energie sparen im Vordergrund steht.

Daher ist es wenig verwunderlich, dass Nvidia jetzt mit Tensor Cores ankommt. Das muss deswegen noch lange nicht der heilige Gral sein. Aktuell geht 25% der Chip Fläche für ein Feature drauf, das entweder Raytracing Schatten oder Raytracing Spiegelungen in einem Triple A Spiel geradeso spielbar hinbekommt. Wenn man mal darüber nachdenkt, ist das geradezu dekadent.

Nvidia hätte mit einem 550mm² Chip die Rasterperformance der 2080Ti hinbekommen, denn die resultiert nur aus dem Mehr an Shadern und der Aufsplittung der Shader in INT und FP (und minimal vielleicht noch dem besseren Frontend). Deshab ist der Anstieg auch so inkonsistent zwischen 20 und 45%.

Der Rest sind Tensor Cores, die aktuell nur für Spielereien taugen.

Ein paar Schatten und Spiegelungen -> 1080p/60 auf einem 750mm² Chip für 1200 Euro.

DLSS ist nur Marketing. DF hat's verglichen. 1440p DLSS soll eine hochperformante Alternative zu 4K TAA sein. Ist es nicht. Es sieht kaum besser aus als upscaled 1440p. Um das zu kaschieren hat man die Infiltrator Demo genommen, die eine extrem niedrige Pixelschärfe hat. In der einzigen Szene der Demo, die feine Details zeigt (Stadtpanorama) sieht DLSS deutlich unschärfer als natives 4K aus, zeigt weniger Details und zudem noch Flimmerartefakte, die durch die Rekonstruktion verursacht werden.

Wieso ARM ausklammern gerade ARM kann man für spezielle Berechnungen verwenden. Deswegen werden diese auch in Switch und Router verbaut. Kann nur leider nicht sagen ob es für RT geeignet ist.
 
Zurück