Xbox Series X: Raytracing bei Entwicklern offenbar unbeliebt

Man hat extra Funktionseinheiten für RT Operationen.
Über die Performance weiß man noch nichts konkretes


Ordentlich implementiertes DLSS 2.0 (oder besser), hat eine hervorragende Qualität und Performance.
Dass Raytracing zu Beginn zu schwach ausfallen könnte war zu befürchten, das ist schließlich bei jeder neu eingeführten Technologie so gewesen.
Die ersten Shaderkarten gingen ja auch bei stärkerer Nutzung gleich in die Knie.
Die Entwickler müssen außerdem erst lernen, die vorhandene Leistung behutsam und effektiv einzusetzen. In den letzten 10 Jahren hat mans da mit der stetig wachsenden Leistung sehr einfach gehabt. Jetzt muss man halt wieder mehr ootimieren.

RTRT ist eigentlich schon sehr beeindruckend und erst am Beginn seines Potentials.
Es ist gut für uns alle, dass es auf den Konsolen schon kommt, aber so richtig den Durchbruch wird es halt erst haben, wenn es allumfassend und sorgenfrei eingesetzt werden kann. Das sehe ich aufgrund des Auflösungswahns (8K) noch nichtmal für die PS6 und Xbox One Half realistisch AUSSER man verwendet ordentliches Upscaling von 1080P weg

Ich hoffe auch dass sie sich 8k nicht durchsetzt bei der ps6 wenn sie bei 4k bleiben und eventuell auch machine learning benutzen habe ich keine bedenken mehr von raytracing bei der ps6 in (8jahren??)

8k zieht einfach viel zu viel Leistung 4k ist ja schon extrem bei den aktuellen Konsolen (ps5)wünsche ich mir lieber 1620p-1800p statt natives 4k die sollen die vorhandene Leistung lieber in die Optik stecken.
 
Die beste und hardwareschonendste Alternative zu RTRT ist mMn das Software RT von der Cryengine in Kombination mit SVOGI.
Hoffe beides kommt in Zukunft noch öfters in Spielen zum Einsatz zumindest in den Spielen von Crytek: Crysis 4, Ryse 2 etc.

Softwareberechnetes RT hat keine Chance gegen fixed function units in Hardware.
Und ja, bei RT-RT ist noch Luft nach oben. Weniger in der Geschwindigkeit selbst bei der Ausführung, als eher im Bereich der Tricks, die Rechenzeit sparen. Da ist ja schon viel passiert (AI denoising etc)
 
RTX ist der teuerste und frechste Witz aller Zeiten.

Ich bin weit davon entfernt nVidias Preispolitik zu verteigen (die - noch - durch mangelnde Konkurrenz begünstigt wird) aber ganz so sehe ich das nicht.

Die Preise waren frech! Technisch ist RTX aus meiner Perspektive eine erstaunliche Entwicklung und von allem hinsichtlich DLSS.

Grüße

phila
 
das habe ich schon vor monaten gedacht das diesesmal der pc deutlicher denn je davon ziehen wird. die neuen rtx 3000er karten kommen vor denn konsolen und da soll raytracing nur mehr einen bruchteil an leistung gegenüber vorher kosten also die pc games können dann viel raytracing nutzen und die konsolen werden sich auf 4k konzentrieren.

Wovon träumst du Nachts? Die Konsolen performen auf 2080 Niveau und die 3090 ist gerade mal doppelt so schnell! Und wir reden hier von dem 5 fachen-PC Preis gegenüber den Konsolen. :stupid:

https://www.pcgameshardware.de/Graf...5-GHz-RAM-und-12-Pin-Stecker-1356263/#comment
 
Ich bin weit davon entfernt nVidias Preispolitik zu verteigen (die - noch - durch mangelnde Konkurrenz begünstigt wird) aber ganz so sehe ich das nicht.

Die Preise waren frech! Technisch ist RTX aus meiner Perspektive eine erstaunliche Entwicklung und von allem hinsichtlich DLSS.

Grüße

phila
DLSS kaschiert doch nur das die Technologie nicht nativ verwendet werden kann und wenn das so ist, dann ist DLSS überflüssig.

MfG
 
Hi, Kennt sich einer hier aktuell mit der RT Implementierung in den Engins aus, und kann mir sagen ob die Strahlenverfolgung Statisch vonstatten geht also einfach vielleicht von der Hauptlichtquelle ausgeht ?
Oder ob die Programmierer jedes Objekt Koordinate Flexibel in der Engin Definieren können?
Hoffe das RT für die KI benutzt wird.
 
Softwareberechnetes RT hat keine Chance gegen fixed function units in Hardware.
Und ja, bei RT-RT ist noch Luft nach oben. Weniger in der Geschwindigkeit selbst bei der Ausführung, als eher im Bereich der Tricks, die Rechenzeit sparen. Da ist ja schon viel passiert (AI denoising etc)

Warum sollte es keine Chance haben?
Weil dann vielleicht Nvidia keine Argumente mehr hat überteuerte Grafikkarten zu verkaufen!?
Die Noir Demo von Crytek sieht super aus und das ohne dedizierte HW für RT zu benötigen und dabei ist es auch noch rel. hardwareschonend.
 
Softwareberechnetes RT hat keine Chance gegen fixed function units in Hardware.
Und ja, bei RT-RT ist noch Luft nach oben. Weniger in der Geschwindigkeit selbst bei der Ausführung, als eher im Bereich der Tricks, die Rechenzeit sparen. Da ist ja schon viel passiert (AI denoising etc)

Leider sind die dedizierten RT-Kerne nun mal echte Kostentreiber. Das ganze braucht noch erheblichste Leistungszuwächse, bessere Fertigungsmethoden und am besten eigentlich eine Flexibilisierung der RT-Berechnung. Es wird noch vieeel Arbeit reingesteckt werden müssen, bis dabei mehr als ein bisschen hochgerechnete Schatten und Spiegelungen herauskommt. AI denoising kaschiert ja auch nur, dass aktuell einfach nur ein Bruchteil der selbst für das aktuelle mini-RT nötigen Rechenleistung vorhanden ist, der selbst dafür eigentlich schon von Nöten wäre.
 
Ich bin weit davon entfernt nVidias Preispolitik zu verteigen (die - noch - durch mangelnde Konkurrenz begünstigt wird) aber ganz so sehe ich das nicht.

Die Preise waren frech! Technisch ist RTX aus meiner Perspektive eine erstaunliche Entwicklung und von allem hinsichtlich DLSS.

Grüße

phila

Dies^

Turing ist ja auch echt ein Ausreißer im Preis gewesen, Pascal und Maxwell hatten konkurrenzfähige Preise zur gegebenen Leistung. Hier zahlte man halt wirklich, um als early adopter die neuen RTX Features nutzen zu können. Es sollte eigentlich jedem klar gewesen sein, dass man hier auf die 2te Iteration hätte warten sollen, bis die Technologie ausgereift ist. Und ich denke auch, dass Ampere deutlich gemäßigter daherkommt.


Zur Xbox Series X News. Das ist nicht verwunderlich mMn. Man siehe nur die Verschiebung von Halo Infinite, da hieß es ja uA. dass die Entwickler zwar seit 2015(?) daran arbeiteten, aber lange nicht klar war, wie die finalen Spezifikationen der Konsole überhaupt aussehen. Jetzt hat man halt eine neue Konsole mit brandneuer Hardware und Architektur; das dauert eben seine Zeit bis die Entwickler dahinter diese vernünftig ausnutzen können... wie das eben schon bei jeder Konsolen-Generation der Fall war.
 
Warum sollte es keine Chance haben?
Weil dann vielleicht Nvidia keine Argumente mehr hat überteuerte Grafikkarten zu verkaufen!?
Die Noir Demo von Crytek sieht super aus und das ohne dedizierte HW für RT zu benötigen und dabei ist es auch noch rel. hardwareschonend.

Weil eine CPU oder GPU nicht auf RT-Berechnungen optimiert ist, und diese deswegen brutal ineffezient ausfallen. Bißchen ähnliches Beispiel: Nimm mal ein HEVC 4k Video mit 10 Bit, und versuche das auf einem sagen wir mal i7-4790k abzuspielen. Der hat noch keine Optimierungen dafür, und muss das komplett per CPU dekodieren - du bekommst eine Reihe Standbilder, obwohl die CPU sich 100% Last und die volle Ladung Strom aus der Steckdose gönnt. Dann nimmst du ein aktuelles Smartphone, und spielst dasselbe Video ab: Tada, flüssig bei minimalem Stromverbrauch. SW-Berechnung unterliegt HW-Berechnung auf optimierter Hardware immer.

Speziell angepasste Chips gabs auch schon immer, nicht nur für RT. Und das ist auch der Weg, der zu gehen ist.
 
Minecraft mit Raytracing lief auf der Series X meines Wissens mit 1080P/30 FPS (wobei hier glaube ich Pathraycing verwendet wurde).
Also Wunder erwarten sollte man sich nicht.
 
Ordentliches Raytracing wird es wohl erst mit Ampere geben.

Bitte definiere "ordentlich" ....
Wenn du meinst, das die Berechnung von mehr Strahlen durchführen wird, dann glaube ich eher, das du zu viele Hoffnungen hegst, da es einfach zu rechenintensive ist. Wenn du hingegen mit "ordentlich" weniger Leistungseinbrüche meinst, da stehen die Chancen relative gut in FullHD statt 60 sinds dann evtl. mit der 3080Ti/3090 90fps xD
 
Da kann man sich das Lachen kaum verkneifen. Marketing trifft Realität.

4k - 60 FPS - Raytracing - 500-700€ ... kannste knicken :ugly:
 
Zurück