Xbox Series X: Raytracing bei Entwicklern offenbar unbeliebt

Weil eine CPU oder GPU nicht auf RT-Berechnungen optimiert ist, und diese deswegen brutal ineffezient ausfallen. Bißchen ähnliches Beispiel: Nimm mal ein HEVC 4k Video mit 10 Bit, und versuche das auf einem sagen wir mal i7-4790k abzuspielen. Der hat noch keine Optimierungen dafür, und muss das komplett per CPU dekodieren - du bekommst eine Reihe Standbilder, obwohl die CPU sich 100% Last und die volle Ladung Strom aus der Steckdose gönnt. Dann nimmst du ein aktuelles Smartphone, und spielst dasselbe Video ab: Tada, flüssig bei minimalem Stromverbrauch. SW-Berechnung unterliegt HW-Berechnung auf optimierter Hardware immer.

Speziell angepasste Chips gabs auch schon immer, nicht nur für RT. Und das ist auch der Weg, der zu gehen ist.

Die Noir Demo sagt da etwas anderes, vorallem wenn ich das z.B. mit den RT Reflexionen in den bisher erschienenen Spielen vergleiche.
Klar hat HW RT viel mehr Potenzial mit fortschreitender Technik (Fertigung, Design etc.) und SW RT hat da bestimmt schon viel früher seine Grenzen.
Aber nichtsdestotrotz ist das SW RT von Crytek schon eine tolle Alternative zumindest solange HW RT noch zu schwach ist, was es offensichtlich ja auch tatsächlich ist. Und Ampere wird das nicht viel besser können. Vielleicht ab der RTX 5000er Reihe und aufwärts oder das Äquivalent von AMD.
 
Also anfang der 2000er Jahre gingen die FPS dank AA oder Shader genauso in den Keller. Grade AA wurde dann einfach ausgeschaltet. Ich sehe kein Problem damit.

Es war eher umgekehrt: Für Anti Aliasing war seitens der Entwickler keinerlei zusätzliche Arbeit nötig und wo Leistungsreserven vorhanden waren, hat man es dann halt via Treiber aktiviert. Das hat bei Raytraycing noch niemand geschafft. ;-)
Auch alle anderen Neuerungen in der 3D-Beschleunigung, einschließlich Shadern, führten nicht zu Leistungseinbrüchen. Natürlich konnte man jeder neuen Karte so viel Aufwand abverlangen, dass die Frameraten einbrachen. Aber es war immer möglich, den bisherigen Normalbetrieb weiterzuführen und nur eine beschränkte Anzahl zusätzlicher Features zu ergänzen, die dann bei entsprechender Dimensionierung auch angemessen schnell ausgeführt wurden. Oft liefen neue Rendermodi sogar schneller als alte (z.B. Einführung von hT&L, Umsetzung von Effekten auf DX8-Niveau in DX9 oder von DX11 in Vulkan/DX12). Raytraycing ist die meiner Erinnerung nach erste neue Technik seit den ersten 3D-Beschleunigern überhaupt, deren Einsatz vom Entwickler einen Austausch großer Teile bestehender Technik verlangt, um danach eine schlechtere Performance zu haben. Und wie bekannt sein sollte, waren besagte Entschleuniger weitestgehend Flops; Spieler und Spiele-Entwickler bevorzugten weiterhin Software-Rendering, bis mit der Voodoo Graphics eine Alternative verfügbar wurde, die nicht nur besser aussah, sondern auch besser lief. Das sehe ich bei Raytraycing aber nicht so schnell.


Ich bin weit davon entfernt nVidias Preispolitik zu verteigen (die - noch - durch mangelnde Konkurrenz begünstigt wird) aber ganz so sehe ich das nicht.

Die Preise waren frech! Technisch ist RTX aus meiner Perspektive eine erstaunliche Entwicklung und von allem hinsichtlich DLSS.

Grüße

phila

Raytraycing und DLSS haben technisch nichts miteinander zu tun. Letzteres ist ein reiner Post-Effekt und kann mit Bildmaterial aus beliebigen Renderquellen (und strengenommen sogar aus nicht rendernden), solange Nvidia diese einpflegt.
 
"Neben UHD-Auflösung und höheren Bildraten haben Micorosoft und Sony für ihre Ende des Jahres erscheinenden Konsolen auch Raytracing bei Spielen in Aussicht gestellt, wie man es bereits vom PC kennt. Doch die Performance-Einbußen durch die anspruchsvolle Lichtberechnung schrecken offenbar nicht wenige Spieleentwickler ab."

1. UHD Auflösung, hahaha, beim Standbild oder Tetris 2021 eventuell.
2. Ich hab ne RT Karte und kenn das immer noch nicht vom PC, was sich auch bei den 5 einhalb Spielen so schnell nicht ändern wird, dann bei Cyberpunk mal gucken, was mir wichtiger ist RT oder WQHD mit ordentlich FPS, ich weiß es jetzt schon. :D
3. Ich hätte auch eher drauf getippt, daß AMD Nvidia schön eins reinwürgt und das RT ganz aus den Konsolen rausläßt, weil es schon, seit mittlerweile Jahren, absehbar ist, daß das noch nicht richtig tut. Was machen die Kartellfürze von Team Rot, anstatt dem Team Grün einen ordentlichen Verachtungshaufen auf den Teppich zu legen? Man verarbeitet man den grünen Hype schön in seine eigene Konsolengeneration hinein, nur um immer wieder melden zu müssen, wie unausgereift es ist. Das ist Nibelungentreue zum "total harten Konkurrenten".
 
Die nächste Meldung wird kommen, früher oder später...

4K/60FPS bei den Entwicklern unbeliebt, aufgrund fehlender Leistungsreserven.

Zu Beginn gibt es noch 60 FPS, ganz klar, aber die PS5 "Pro" und XBSX "Pro" werden kommen, ganz bestimmt. :D
 
Aber nichtsdestotrotz ist das SW RT von Crytek schon eine tolle Alternative zumindest solange HW RT noch zu schwach ist, was es offensichtlich ja auch tatsächlich ist.
Im Gegenteil- Wenn man sich die Entwicklung von RTRT ansieht, kann man ja immer stärker erkennen, dass es nicht die Hardware ist, die da nicht mitspielt, sondern dass die Software bzw. Beschleunigungs und Sortieralgorithmen inkl. Denoising noch hohen Entwicklungsbedarf hatten/haben.

Manche haben die Entwicklung offensichtlich nach Erscheinen der ersten RTRT Karten nicht verfolgt. Performancetechnisch stehen wir inzwischen hier:
Wolfenstein: Youngblood | RTX 2060 Super | FullHD, Mein Leben, RTX ON, DLSS ON - YouTube

Also ggaaaaaaaaanz weit weg davon, dass Hardware RT zu schwach wäre.

Und Ampere wird das nicht viel besser können. Vielleicht ab der RTX 5000er Reihe und aufwärts oder das Äquivalent von AMD.
Dann poste bitte die Bencharkmessungen Deiner Ampere GPUs mit aktiviertem RT.

Immer die selbe Laier von Leuten deren Wissen um RTRT mit dem Erscheinen der Turing Karten stehengeblieben zu sein scheint und zudem überhaupt nicht zu begreifen scheinen, warum RTRT für die Zukünftige Entwicklung von Spielen so wichtig ist.
 
Was ich mich schon länger frage, wäre es nicht simnvoll eine extra gpu nur für raytracing berechnungen praktisch zusätzlich zur "normalen gpu"

Ich kann mich damals noch an mafia 2 mit den phsxy effekten errinern da hatten auch manche ne "zusätzliche" nvidia gpu im Rechner.
 
3. Ich hätte auch eher drauf getippt, daß AMD Nvidia schön eins reinwürgt und das RT ganz aus den Konsolen rausläßt, weil es schon, seit mittlerweile Jahren, absehbar ist, daß das noch nicht richtig tut. Was machen die Kartellfürze von Team Rot, anstatt dem Team Grün einen ordentlichen Verachtungshaufen auf den Teppich zu legen? Man verarbeitet man den grünen Hype schön in seine eigene Konsolengeneration hinein, nur um immer wieder melden zu müssen, wie unausgereift es ist. Das ist Nibelungentreue zum "total harten Konkurrenten".

Es ist für mich schon etwas verwirrend, wenn man aus rein regligösen Zügen bzw. im Zuge der eigenen Fehde mit einer "Marke" dann sogar anderen Firmen wünscht, dass sie den Zug der Zeit verpassen und durch ein irrsinniges Manöver in ein noch schwierigeres Fahrwasser gerät, als man es eh schon ist. Nur um den Konkurrenten "vermeintlich" eins auszuwischen.

Hätte AMD die Implementation von RTRT inkl. KI Einheiten und co. weiter hinausgezögert, wärs das für AMD gewesen. Zudem hätte man die Entwicklung einer wichtigen Technologie dadurch für alle verzögert.
Wo sollen denn in Sachen Rastertechnik die von den Usern regelmäßig erwarteten 40-60% Geschwindigkeitssteigerung herkommen, wenn nicht bald eine neue Technik eingeführt wird, die deutlich besser skaliert.
 
Was ich mich schon länger frage, wäre es nicht simnvoll eine extra gpu nur für raytracing berechnungen praktisch zusätzlich zur "normalen gpu"

Ich kann mich damals noch an mafia 2 mit den phsxy effekten errinern da hatten auch manche ne "zusätzliche" nvidia gpu im Rechner.

Ich denke, dass es früher oder später darauf rauslaufen wird. Mit Raytracing entfallen die Nachteile der Probleme von z.B. SLI oder Multi- GPU bei der Berechnung.
Das skaliert theoretisch so lange, bis jeder Bildpunkt einer gewählten Auflösung durch einen eigenen Hardware- Kern berechnet wird.

Da reichen viele viele Kerne, die dafür ruhig ein wenig langsamer, also im Sweetspot laufen dürfen. Auch in kleineren Packages, wo die yield- Raten erheblich höher sein können.
Willst Du bei RTRT die Geschwindigkeit verdoppeln, kommt einfach nochmal ein CO- Prozessor drauf.
Oder Du steckst Dir ne neue Karte rein.

Sieht man schön an den CPUs, wie das mit Kernen unterschiedlichster Art skaliert (Cinebench).
 
Was ich mich schon länger frage, wäre es nicht simnvoll eine extra gpu nur für raytracing berechnungen praktisch zusätzlich zur "normalen gpu"

Ich kann mich damals noch an mafia 2 mit den phsxy effekten errinern da hatten auch manche ne "zusätzliche" nvidia gpu im Rechner.

Die sollen das einfach ordentlich programmieren und leistungssparend umsetzen. Das hätte aber schon zu Nvidias RTX 2000 Serie an den Start gehört. Und das "tolle" DLSS, was dann das RT spielbar macht, ist halt nichts anderes als ein runterskalieren der Auflösung und der Einstellungen, das heißt, wir werden in Zukunft nicht nur bei den Konsolen verarscht, weil da nicht das volle Programm abläuft, sondern nun halt auch am PC. Pfffff, Flatulenzia, KI für den Arsch.

Anstatt daß man hier sein Alleinstellungsmerkmal und seine Qualität als PCler verteidigt, hüpfen dann noch so ein paar Quasisektenopfer voll auf den Zug auf, was ja schon lächerlich ist.
 
Die Noir Demo von Crytek sieht super aus und das ohne dedizierte HW für RT zu benötigen und dabei ist es auch noch rel. hardwareschonend.

Es passiert auch nichts. Die Techdemo ist relativ statisch und Inhaltslos. Füll das mit NPCs und Leben und die Frameraten gehen in den Keller, ansonsten würdest du es längst in irgendeinem Spiel vorfinden, aber nicht mal in CryTeks eigenen Spielen siehst du es ;)
 
RayTracing kommt halt für die jetzigen Konsolen einfach zu früh. Sehe das, wenn überhaupt, bei den PS5 exclusives erscheinen, weil diese Spiele extremst für die gegebene Hardware optimiert werden.

RTX2000 war wirklich die Alpha in Sachen RayTracing. Ja es geht.., aber nicht sonderlich gut. Würde selbst jetzt sagen, dass auch Ampere nicht der Weisheit letzter Schluss sein wird und in Sachen RayTracing und dessen Optimierung noch für folgende Grafikkartengenerationen viel Luft nach oben sein wird.

DLSS 3.0 wird es aber bei der RTX3000 gut kaschieren können. Als Besitzer einer RTX2000 Karte würde ich mich natürlich freuen, wenn DLSS 3.0 auch dort angeboten werden würde, ich bezweifel es nur leider. Wird wohl ein exklusives Feature für die neue Grafikkartengeneration werden. Ein Sellingpoint dieser.
 
Die sollen das einfach ordentlich programmieren und leistungssparend umsetzen. Das hätte aber schon zu Nvidias RTX 2000 Serie an den Start gehört. Und das "tolle" DLSS, was dann das RT spielbar macht, ist halt nichts anderes als ein runterskalieren der Auflösung und der Einstellungen, das heißt, wir werden in Zukunft nicht nur bei den Konsolen verarscht, weil da nicht das volle Programm abläuft, sondern nun halt auch am PC. Pfffff, Flatulenzia, KI für den Arsch.
Anstatt hier uralt- Plattitüden zu verbreiten würde ich Dir nahelegen, Dich mit den neuen Techniken erstmal auseinanderzusetzen und die Funktionsweise zu begreifen.

Anstatt daß man hier sein Alleinstellungsmerkmal und seine Qualität als PCler verteidigt, hüpfen dann noch so ein paar Quasisektenopfer voll auf den Zug auf, was ja schon lächerlich ist.
Sprach der, der hier aber schön frei von jeglichen Argumenten, Belegen oder Beispielen die Anti- RTRT/AI Circle- Jerk Fraktion befeuert....

Falls Du es noch nicht bemerkt haben solltest- Der Zeitpunkt, wo man sich gegenseitig auf die Schluter geklopft hat, wenn man ausgesprochen hat, dass RTRT und DLSS Mist seien, ist inzwischen vorbei....
 
Es passiert auch nichts. Die Techdemo ist relativ statisch und Inhaltslos. Füll das mit NPCs und Leben und die Frameraten gehen in den Keller, ansonsten würdest du es längst in irgendeinem Spiel vorfinden, aber nicht mal in CryTeks eigenen Spielen siehst du es ;)

und dazu hamm die Reflexionen noch Ghosting aus der Hölle
 
RayTracing kommt halt für die jetzigen Konsolen einfach zu früh. Sehe das, wenn überhaupt, bei den PS5 exclusives erscheinen, weil diese Spiele extremst für die gegebene Hardware optimiert werden.
Und welchen Beleg, Beweis/Beispiele hast Du dafür? Ich kenne nur ein Interview mit einem Entwickler, der behauptet, dass die Konsolen die Haupt- RTRT- Effekte zeitgleich bei akzeptabler Performance umsetzen kann.

RTX2000 war wirklich die Alpha in Sachen RayTracing. Ja es geht.., aber nicht sonderlich gut.
Im Gegenteil- Das geht inzwischen besser als von Anfang an erwartet. Wir haben Multieffekttitel, was am Anfang niemand für möglich gehalten hat und sogar zwei ausgewachsene Pathtracing- Titel.

Würde selbst jetzt sagen, dass auch Ampere nicht der Weisheit letzter Schluss sein wird und in Sachen RayTracing und dessen Optimierung noch für folgende Grafikkartengenerationen viel Luft nach oben sein wird.
Und genau das trifft den Nagel auf den Kopf. Durch RTRT hat man sich wieder eine Technologie geschaffen, die sowohl qualitativ deutliche Sprünge als auch deutlich Sprünge in Sachen Performance zulässt.
Wenn Generation 1 (siehe mein Demovideo) schon solch hohe Performance auf den Bildschirm bringt, dann sprechen wir hier von einer Technologieentwicklungsgeschwindigkeit, wie sie es vorher im Grafikkartensektor nicht gegeben hat.

DLSS 3.0 wird es aber bei der RTX3000 gut kaschieren können. Als Besitzer einer RTX2000 Karte würde ich mich natürlich freuen, wenn DLSS 3.0 auch dort angeboten werden würde, ich bezweifel es nur leider. Wird wohl ein exklusives Feature für die neue Grafikkartengeneration werden. Ein Sellingpoint dieser.
Es gibt kein DLSS 3.0
 
Im Gegenteil- Wenn man sich die Entwicklung von RTRT ansieht, kann man ja immer stärker erkennen, dass es nicht die Hardware ist, die da nicht mitspielt, sondern dass die Software bzw. Beschleunigungs und Sortieralgorithmen inkl. Denoising noch hohen Entwicklungsbedarf hatten/haben.

Manche haben die Entwicklung offensichtlich nach Erscheinen der ersten RTRT Karten nicht verfolgt. Performancetechnisch stehen wir inzwischen hier:
Wolfenstein: Youngblood | RTX 2060 Super | FullHD, Mein Leben, RTX ON, DLSS ON - YouTube

Also ggaaaaaaaaanz weit weg davon, dass Hardware RT zu schwach wäre.


Dann poste bitte die Bencharkmessungen Deiner Ampere GPUs mit aktiviertem RT.

Immer die selbe Laier von Leuten deren Wissen um RTRT mit dem Erscheinen der Turing Karten stehengeblieben zu sein scheint und zudem überhaupt nicht zu begreifen scheinen, warum RTRT für die Zukünftige Entwicklung von Spielen so wichtig ist.

Wenn du meinen Post vorher gelesen hättest, dann wüsstest du, dass RTRT MIT DLSS nichts als eine "Mogelpackung" ist.
OHNE DLSS sieht man erst die wahre RTRT Leistung einer GPU, also spare es dir mir irgendwelche Youtube Videos zu verlinken in dem DLSS ON ist.
Das sagt für mich nichts über die RTRT Leistung einer GPU aus.

Benchmarks zu Ampere habe ich natürlich nicht ist halt nur meine realistische Einschätzung.
Aber wir werden ja alle bald sehen was Ampere so drauf hat für gerade mal 1300-1500 Euro :lol:
 
Es passiert auch nichts. Die Techdemo ist relativ statisch und Inhaltslos. Füll das mit NPCs und Leben und die Frameraten gehen in den Keller, ansonsten würdest du es längst in irgendeinem Spiel vorfinden, aber nicht mal in CryTeks eigenen Spielen siehst du es ;)

Stimmt schon, dass sich dabei nicht viel tut, aber stell dich mal neben eine Pfütze z.B. oder such dir eine Szene in einem Spiel mit RT Reflexionen aus wo gerade auch nicht viel bis kaum etwas los ist und beobachte dann die Framerate aber ohne DLSS natürlich ;)
 
Wenn du meinen Post vorher gelesen hättest, dann wüsstest du, dass RTRT MIT DLSS nichts als eine "Mogelpackung" ist.
OHNE DLSS sieht man erst die wahre RTRT Leistung einer GPU, also spare es dir mir irgendwelche Youtube Videos zu verlinken in dem DLSS ON ist.
Das sagt für mich nichts über die RTRT Leistung einer GPU aus.
Hättest Du Dich über die Technologie DLSS informiert, wüsstest Du wiederum, dass diese explizit komplementär für RTRT entwickelt wurde. Nicht nur, um die Performance wiedere anzugleichen, sondern auch ungeliebtes Rauschen und Artefakte durch temporale Verrechnung in den Griff kriegen zu können.

Benchmarks zu Ampere habe ich natürlich nicht ist halt nur meine realistische Einschätzung.
Aber wir werden ja alle bald sehen was Ampere so drauf hat für gerade mal 1300-1500 Euro :lol:
Selbst wenn es so wäre, haben ja die "Antis" dann schonmal dahingehend nen Dämpfer bekommen, dass es eben keine 2000,-€ sind, wie es oftmals plakativ in den Foren bejammert wurde.
 
DXR ist deswegen unbeliebt weil die Ausführung die rasterleistung senkt
kein wunder da die dxr oder raster operationen bedeutet
Für 4k fehlen dann die texturen (polygone)
Für dxr dann die tmu
beides geht nur bedingt also muss man nativ auf 720p runter was optisch ein problem ist oder man designet simple.
bedeutet man kann nicht mit Effekten auf gute Texturen zaubern weil man dazu die tmu braucht die wenn dxr genutzt wird nicht verfügbar sind.
Es wird darauf hinauslaufen das man sich auf 900p und dxr ausschließlich dem audio zuwendet.
dazu werden weniger tmu benötigt. Und hier und da GI in Außenbereichen.

Das wird sich mit UE5 komplett ändern da hier ein anderer Ansatz für dxr genutzt wird.
lumen wird ein hybrid (schatten licht)
und nanite eine komplett andere Herangehensweise an Textur Erstellung.
beide sind partiell dxr unterstützt.

Da aber epic so ziemlich der einzige engine Entwickler ist die das bieten muss der Rest erstmal neue engines entwerfen. Das bei den alten engines dxr unbeliebt ist, ist klar. Da es immer Leistung kostet.
Und die fake Effekte performanter sind neben dem design Problemen.
 
Diese Entscheidung finde ich gar nicht so verkehrt. Wenn man überlegt das die Einsteiger- Modell der 16xx Reihe z.B. RT gar nicht unterstützen. Den Entwicklern geht es nicht alleine um die Konsolen. Aber RT braucht immens Rechenleistung und auch zusätzliche Entwicklungszeit, welche im Umkehrschluss auch weitere Kosten verursacht. Solange die Hardware dafür noch nicht gänzlich verbreitet ist, dazu zähle ich auch den Einsteiger- Markt ,macht es wenig Sinn es überall zu implementieren. Wird werden sehen ob es NVIDIA und AMD gelingt es mit den kommenden Generationen massentauglicher zu machen.
 
Ordentliches Raytracing wird noch locker 10 Jahre dauern dieser fake Quatsch ist doch kein Raytracing. Echtes RT und wir hätten fps 1-5 max wenn überhaupt.
Stimmt. Für echtes RT würde der stärkste Computer der Welt inkl. aller nachfolgender Generationen pro Bildpunkt nämlich unendlich lange rechnen, da Du durch digitale Werte keine quasi unendliche analoge Bandbreite an Farbwerten abbilden kannst.

Und dieser fake- Quatsch ist inzwischen nicht nur 08/15 Raytracing, sondern zum Teil eben auch schon gepathtraced. Hier scheinen viele anscheinend so wenig in der technischen Materie zu stecken, dass hier überhaupt kein Gefühl dafür vorherrscht, wie weit die Technik im Gegensatz zu vielen anderen Techniken kurz nach Einführung überhaupt ist.

Eiei- Das ist ja hier teilweise wirklich haarsträubend, was man da so lesen muss. Leute- Wir sind hier in einem Technikforum!
 
Zurück