News Quake 2: CPU-basiertes Raytracing mit Vulkan hat gewaltigen Nachteil

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Quake 2: CPU-basiertes Raytracing mit Vulkan hat gewaltigen Nachteil

Die für Raytracing notwendigen Berechnungen können nicht nur auf Grafikkarten, sondern auch auf Prozessoren ausgeführt werden. Wirklich praxistauglich ist das aber nicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Quake 2: CPU-basiertes Raytracing mit Vulkan hat gewaltigen Nachteil
 
das ist doch cool. cpus sind eh viel zu schnell. wenn man eine gute aber fünf jahre alte cpu hat gibt es eigentlich kein spiel was deshalb nicht wie sau rennen würde. im umkehrschluss heisst dies doch das jeder mit einer aktuellen cpu viel reserven hat. wieso diese nicht nutzen und wenn es jetzt noch nicht geht, geht es vieleicht in ein paar generationen. alles super, auf jeden fall coole idee.
 
das ist doch cool. cpus sind eh viel zu schnell. wenn man eine gute aber fünf jahre alte cpu hat gibt es eigentlich kein spiel was deshalb nicht wie sau rennen würde. im umkehrschluss heisst dies doch das jeder mit einer aktuellen cpu viel reserven hat. wieso diese nicht nutzen und wenn es jetzt noch nicht geht, geht es vieleicht in ein paar generationen. alles super, auf jeden fall coole idee.
Ich mag es durchaus wenn meine CPU im Teillast Bereich bleibt und nicht sinnlos Strom verbrät, vor allem für Sachen die andere Hardware im System für eine Bruchteil des Aufwandes bereit stellen kann.
 
das ist doch cool. cpus sind eh viel zu schnell. wenn man eine gute aber fünf jahre alte cpu hat gibt es eigentlich kein spiel was deshalb nicht wie sau rennen würde. im umkehrschluss heisst dies doch das jeder mit einer aktuellen cpu viel reserven hat. wieso diese nicht nutzen und wenn es jetzt noch nicht geht, geht es vieleicht in ein paar generationen. alles super, auf jeden fall coole idee.
An der idee ist nichts cool. Es ist einfach nur eine Machbarkeitsstudie....

Mit der cpu raytracing zu berechnen ist ungefahr so sinnvoll wie nen Opa mit Krückstock an einem Wettrennen teilnehmen zu lassen während dein Sprinter ihm lediglich zusieht....
 
Wäre das nicht eine perfekte Aufgabe für einen Xeon-44 Kerner von AliExpress?Zumindest wenn solche Berechnungen auf so viele Threads aufteilbar sind! :huh:
 
Wäre das nicht eine perfekte Aufgabe für einen Xeon-44 Kerner von AliExpress?Zumindest wenn solche Berechnungen auf so viele Threads aufteilbar sind! :huh:
Wenn ein 5600X mit sechs Kernen 15 Minuten pro Frame (!) braucht, hilft dir auch kein 44-Kerner - selbst bei linearer Skalierung.

MfG
Raff
 
Leute, Lavapipe ist mehr oder weniger das Vulkan-Äquivalent zu WARP, also auf deutsch eine reine Software-Implementierung der API. WARP kann nebenbei auch D3D12-Raytracing, und das ist auch durchaus sinnvoll, wenn man irgendwas in der Richtung debuggen will.

Wobei WARP wahrscheinlich um Größenordnungen schneller ist, das müsste sicherlich keine 15 Minuten pro Frame dauern (kann ich nebenbei bestätigen, 7 Minuten hier auf nem 5950X im kleinen Fenster bei 25% Resolution Scale), aber llvmpipe war schon immer einer der langsamsten Software-Rasterizer.
 
Ich mag es durchaus wenn meine CPU im Teillast Bereich bleibt und nicht sinnlos Strom verbrät, vor allem für Sachen die andere Hardware im System für eine Bruchteil des Aufwandes bereit stellen kann.
es ist doch eine sache der config, wo ist also das problem? wirst du etwa gezwungen das zu aktivieren wenn es verfügbar ist? also so richtig mit knarre am kopp?
An der idee ist nichts cool. Es ist einfach nur eine Machbarkeitsstudie....

Mit der cpu raytracing zu berechnen ist ungefahr so sinnvoll wie nen Opa mit Krückstock an einem Wettrennen teilnehmen zu lassen während dein Sprinter ihm lediglich zusieht....
dir ist aber klar das sich technik weiter entwickelt? wenn ja solltest du auch wissen das dies bei cpus ebenfalls der fall ist.
 
dir ist aber klar das sich technik weiter entwickelt? wenn ja solltest du auch wissen das dies bei cpus ebenfalls der fall ist.

Bei 15 Minuten für ein Frame in 720p braucht man an sowas erst garkeinen Gedanken verschwenden. Ich gehe nicht davon aus, dass sich in den nächsten Jahren die CPU-Leistung mal eben um den Faktor 5000+ erhöhen wird. Da macht es ja noch erheblich mehr Sinn eine GTX 1000 GPU für RT-Berechnungen zu verwenden. Die hat zwar keine RT-Kerne, bringt aber mit reiner softwareseitiger Unterstützung schon um Welten bessere Ergebnisse.
 
Bei 15 Minuten für ein Frame in 720p braucht man an sowas erst garkeinen Gedanken verschwenden. Ich gehe nicht davon aus, dass sich in den nächsten Jahren die CPU-Leistung mal eben um den Faktor 5000+ erhöhen wird. Da macht es ja noch erheblich mehr Sinn eine GTX 1000 GPU für RT-Berechnungen zu verwenden. Die hat zwar keine RT-Kerne, bringt aber mit reiner softwareseitiger Unterstützung schon um Welten bessere Ergebnisse.
Eben. Die CPU ist darauf getrimmt ALLES berechnen zu können....

Sie ist ein allrounder aber birgends ein Spezialist. Die GPU ist aber explizit auf Grafik und neuerdings auch AI Kalkulation getrimmt.... Egal wie sehr sich die Technik weiter entwickeln wird. Die CPU wird niemals Raytracing sinnvoll berechnen können....
 
Zurück