Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Laut einem AMD-Mitarbeiter soll Raytracing in Spielen auch durch Prozessoren beschleunigt werden können. Das würde neue Möglichkeiten für die Technik bringen, und sie vielleicht für mehr Spieler ermöglichen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Natürlich kann man Raytracing auf der CPU berechnen. Diezu erwartende Performance ohne "Optimierung" (=viel weniger Strahlen berechnen als nötig wären für ein sehr gutes Ergebnis) kann man sich im Cinebench ansehen... dann rechnen wir nicht mehr in fps sondern in spf (30 Sekunden pro Frame) :D

Ernsthaft: Es mag sein dass man über die CPU gewisse Dinge da etwas beschleunigen kann aber man sollte gleich Abstand von dem Gedanken nehmen, eine CPU könnte auch nur annähernd geraytracte Szenen in Echtzeit berechnen. Selbst speziell dafür entwickelte Einheiten haben bei ein paar wenigen Strahlen wie man bei den RTX-Karten sieht schon massive Probleme.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Das wäre gut für AMD mit ihren im Vergleich zu Intel preiswerten 8 Kern CPUs, um ihre Verbreitung zu erhöhen.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Vielleich tkann dann ja ein 32er Threadripepr einer 2070 Beine machen, damit Battleifled FullHD mit 60 Bildern schafft ^^
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Ich hab ne bessere idee:
Noch 10 Jahre warten und dann mal gucken was dann so aktuelle Hardware leistet und sich dann mal wieder Gedanken über raytracing machen.

Oder:

Einfach voll auf raytracing setzen und alles gleich komplett ändern.... Das hier ist alles nix halbes und nix ganzes
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

ja, und ich kann auch einen Zug "beschleunigen" wenn ich einen Ball nach hinten raus werfe......
Einfach abwarten bis auch AMD Dx12 RayTracing per Hardware unterstützt. geplant ist es ja schon.


Vielleich tkann dann ja ein 32er Threadripepr einer 2070 Beine machen, damit Battleifled FullHD mit 60 Bildern schafft ^^

Da kannst 2x 64 kern EPYC nehmen und am ende schaut dann 20% der Raytracing-Leistung einer 2070 raus. Spezialisierte Hardware ist kaum zu schlagen.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Die Rede ist von "kann". Da bleiben noch viele Fragen offen.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Es ist mir bisher noch immer komplett schleierhaft, wie das funktionieren soll.

Andererseits ist es, wie es Nvidia umgesetzt hat, extrem suboptimal. Werden die Tensor Cores nicht genutzt, ist viel Die-Fläche komplett nutzlos. Man muss also viel mehr Chip bezahlen, als man tatsächlich nutzt.
Und bis auf Echtzeit-Raytracing sehe ich leider auch keinen Anwendungsfall, wo diese Tensor Cores irgendwie für Privatpersonen nützlich sein könnten.

Es wäre sehr schön, wenn AMD irgendeine bessere Lösung dafür fände, als so viel Die zu verschwenden. Durch das Infinity Fabric müsste es aber langfristig immerhin kein Problem darstellen, eine schnelle Kommunikation zwischen GPU und CPU herzustellen.

Edit: Es wäre auch besonders schön, wenn man FP32 zum Berechnen benutzen könnte, da das Raytracing von Nvidia aktuell qualitativ nicht besonders scharf ist...
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Natürlich kann man Raytracing auf der CPU berechnen. Diezu erwartende Performance ohne "Optimierung" (=viel weniger Strahlen berechnen als nötig wären für ein sehr gutes Ergebnis) kann man sich im Cinebench ansehen... dann rechnen wir nicht mehr in fps sondern in spf (30 Sekunden pro Frame) :D

Ernsthaft: Es mag sein dass man über die CPU gewisse Dinge da etwas beschleunigen kann aber man sollte gleich Abstand von dem Gedanken nehmen, eine CPU könnte auch nur annähernd geraytracte Szenen in Echtzeit berechnen. Selbst speziell dafür entwickelte Einheiten haben bei ein paar wenigen Strahlen wie man bei den RTX-Karten sieht schon massive Probleme.

wir reden ja nicht über die jetzige CPUs, sondern über darauf optimierte CPUs, die entsprechende kleine Hardware besitzt.
Physix lässt sich ja heute mit der cpu auch hervorragend berechnen. Vor einigen Jahren war es unmöglich( siehe Mafia 2)
abgesehen davon alles eine Frage der Software und Optimierungen.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Physix lässt sich ja heute mit der cpu auch hervorragend berechnen. Vor einigen Jahren war es unmöglich( siehe Mafia 2)
"Hervorragend" ganz sicher nicht. Es hat einen Grund, warum CPU-PhysX deutlich simpler als vollwertiges PhysX für GPUs ist. Die Performance ist auch heute alles andere als toll, wenn die CPU in die Presche springt. Kannst in Batman Arkham Knight ja mal PhysX per CPU erzwingen ...
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

ja, und ich kann auch einen Zug "beschleunigen" wenn ich einen Ball nach hinten raus werfe......
Einfach abwarten bis auch AMD Dx12 RayTracing per Hardware unterstützt. geplant ist es ja schon.




Da kannst 2x 64 kern EPYC nehmen und am ende schaut dann 20% der Raytracing-Leistung einer 2070 raus. Spezialisierte Hardware ist kaum zu schlagen.

YouTube

physx lässt sich heute hervorragend über cpu betrechnen
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Es ist mir bisher noch immer komplett schleierhaft, wie das funktionieren soll.

Andererseits ist es, wie es Nvidia umgesetzt hat, extrem suboptimal. Werden die Tensor Cores nicht genutzt, ist viel Die-Fläche komplett nutzlos. Man muss also viel mehr Chip bezahlen, als man tatsächlich nutzt.
Und bis auf Echtzeit-Raytracing sehe ich leider auch keinen Anwendungsfall, wo diese Tensor Cores irgendwie für Privatpersonen nützlich sein könnten.

Es wäre sehr schön, wenn AMD irgendeine bessere Lösung dafür fände, als so viel Die zu verschwenden. Durch das Infinity Fabric müsste es aber langfristig immerhin kein Problem darstellen, eine schnelle Kommunikation zwischen GPU und CPU herzustellen.

Edit: Es wäre auch besonders schön, wenn man FP32 zum Berechnen benutzen könnte, da das Raytracing von Nvidia aktuell qualitativ nicht besonders scharf ist...

Es gibt doch einen Ansatz die verschwendete Die-Fläche durch Tensor-Cores auch für Spieler nutzbar zu machen: DLSS. Die Grundidee ist genial, scheint es derzeit das hochwertigste AA zu sein, das dazu auch noch ohne Leistungsverlust zu funktionieren scheint. Nur leider nur eine Option für eine verschwindend kleine Minderheit und das wird sich vorraussichtlich auch in den nächsten 2 Jahren nicht ändern...
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Physix lässt sich ja heute mit der cpu auch hervorragend berechnen. Vor einigen Jahren war es unmöglich( siehe Mafia 2)

Wenn PhysX die gleiche Komplexität wie es auf GPUs berechnet wird auf der CPU laufen würde hättest du auch heute noch 3 fps.
PhysX erkennt auf welcher Art von Chip es ausgeführt wird und passt die Berechnungen entsprechend an. Lässt mans auf der CPU laufen werden die Berechnungen stark vereinfacht und sehr viel weggelassen dass es überhaupt funktioniert (so wie Raytracing in der Praxis aktuell auf RTX-Karten).
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Und ich Trottel kaufe mir noch Grafikkarten, obwohl das doch alles auch meine CPU berechnen kann. Mann, ich bin so doof!
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

YouTube

physx lässt sich heute hervorragend über cpu betrechnen

Ja, 8kerner RyZen. Und was sieht man? Ah ja - CPU ausgelastet und die Physik nicht nur mit weniger Partikeln sondern läuft auch noch mit niedrigerer Framrate als die Spiele selbst XDD
klar kann man PhysX auf der CPu ebrechnen - die GPU hat aber nunmal deutlich mehr Leistung für solch simple Aufgaben. eine Rx 560 ist da schon mal 20 mal Leistungsfähiger als ein Ryzen 7 2700x. Also selbst wenn du die CPU voll auslastest wäre das auf der GPU nur <10% Last.

Genauso wie viele andere GameWorks effecte auch auf der CPU berechnet werden können, aber es hat schon seinen sinn warum wir auf spezialisierte Hardware für Grafik setzten.
Man kann auch Videos auf der CPU decodieren. Ist dann recht lustig wenn eine Generation CPU das noch nicht kann, die nächste aber schon - wenn man dann sieht das bei einer nur so 5% Last anliegen, die andere CPU dauerhaft frames droped und man bei 100% auslastung nur 10 FPS bekommt.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Der Artikel bringt mal wieder Licht ins Dunkle. Mal sehen vielleicht gibt es ja auch bald Zusatzkarten speziel für RT also nicht schon in der GPU integriert wie bei Nvidia. Was natürlich das Kaufargument für eine RTX drastisch reduzieren würde
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Mal sehen vielleicht gibt es ja auch bald Zusatzkarten speziel für RT also nicht schon in der GPU integriert wie bei Nvidia. Was natürlich das Kaufargument für eine RTX drastisch reduzieren würde

Das wäre sinnvoller, denn ich will für so ein RTX-Zeug kein Geld ausgeben. Wenn es in 20 Jahren alles mit hoher Genauigkeit raytracen kann, ohne dass ich irgendwelche Tensor Cores brauche, dann nehme ich das gerne. Aber ich gebe nicht FP32- und FP16-Leistung her, um irgendwelches Tensorzeug im Gegenzug zu bekommen, weil ich damit bei Bild- und Videobearbeitung und Heterogeneous Computing-Programmen absolut nichts anfangen kann... D.h. die Tensor Cores würden mir dann absolut nur in Spielen einen Vorteil bringen, und das sehe ich dann einfach preis-/leistungsmäßig nicht ein.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Wenn PhysX die gleiche Komplexität wie es auf GPUs berechnet wird auf der CPU laufen würde hättest du auch heute noch 3 fps.
PhysX erkennt auf welcher Art von Chip es ausgeführt wird und passt die Berechnungen entsprechend an. Lässt mans auf der CPU laufen werden die Berechnungen stark vereinfacht und sehr viel weggelassen dass es überhaupt funktioniert (so wie Raytracing in der Praxis aktuell auf RTX-Karten).

Was man auch sehr gut im Video sieht das er verlinkt hat. Die PhysX-Effekte in den Szenen die mit CPU berechnet angegeben sind sind alles andere als überzeugend.
 
AW: Raytracing in Spielen: Beschleunigung durch Prozessor soll möglich sein

Natürlich kann man Raytracing auf der CPU berechnen. Diezu erwartende Performance ohne "Optimierung" (=viel weniger Strahlen berechnen als nötig wären für ein sehr gutes Ergebnis) kann man sich im Cinebench ansehen... dann rechnen wir nicht mehr in fps sondern in spf (30 Sekunden pro Frame) :D

Ernsthaft: Es mag sein dass man über die CPU gewisse Dinge da etwas beschleunigen kann aber man sollte gleich Abstand von dem Gedanken nehmen, eine CPU könnte auch nur annähernd geraytracte Szenen in Echtzeit berechnen. Selbst speziell dafür entwickelte Einheiten haben bei ein paar wenigen Strahlen wie man bei den RTX-Karten sieht schon massive Probleme.

Du meinst so wie Quake3/4 Quake Wars und Wolfenstein Raytraced das NUR über die CPUs lief?

Natürlich wären es nur Teile der Berechnung, aber due sind größer als du denkst und performanter. Vorallem wenn msn das etwa auf einem 32Kern TR laufen lässt oder gar Dual System. Das hab ich hier vor ein paar Wochen schon gepostet. Due Rechenbeispiele kommen von Daniel Pohl selbst. Denoising und Co würden weiter über die GPU laufen.
 
Zurück