Xbox Series X: Raytracing bei Entwicklern offenbar unbeliebt

Hättest Du Dich über die Technologie DLSS informiert, wüsstest Du wiederum, dass diese explizit komplementär für RTRT entwickelt wurde. Nicht nur, um die Performance wiedere anzugleichen, sondern auch ungeliebtes Rauschen und Artefakte durch temporale Verrechnung in den Griff kriegen zu können.


Selbst wenn es so wäre, haben ja die "Antis" dann schonmal dahingehend nen Dämpfer bekommen, dass es eben keine 2000,-€ sind, wie es oftmals plakativ in den Foren bejammert wurde.

RTRT und DLSS sind volkommen voneinander getrennte Technologien die miteinander erstmal nichts zu tun haben.
Mit geht es um die reine RTRT Leistung der GPUs und die kann man nunmal nur ohne DLSS bestimmen.
Ich sage nicht, das man DLSS nicht in Kombination mit RTRT nutzen soll, ganz im Gegenteil, aber man kann nunmal keine Rückschlüsse über die reine RTRT Leistung einer GPU mit DLSS ziehen und darum ging es mir halt.
 
RTRT und DLSS sind volkommen voneinander getrennte Technologien die miteinander erstmal nichts zu tun haben.
Nur weil sie getrennt lauffähig sind, heisst es nicht, dass diese nicht für einen sich gegenseitig stützenden Zweck entwickelt wurden.

Mit geht es um die reine RTRT Leistung der GPUs und die kann man nunmal nur ohne DLSS bestimmen.
Und wie bestimmst Du die Rasterleistung eines Chips? Wählst Du da auch schön brav eine 32K Auflösung, oder stimmst Du mit mir überein, dass man beim Rastern eben auch durch Qantisierung in niedrigere Auflösungen schummelt?
Die gesamte Rasterisierung ist eine Anhäufung, von Ungenauigkeiten, Schummeln, Näherungswerten Auflösungstricks, innerhalb des Bilds unterschiedlicher FPS Raten, Blur usw. usf.

Ich sage nicht, das man DLSS nicht in Kombination mit RTRT nutzen soll, ganz im Gegenteil, aber man kann nunmal keine Rückschlüsse über die reine RTRT Leistung einer GPU ohne mit DLSS ziehen und darum ging es mir nunmal.
Du kannst gewisse Dinge nunmal nicht trennen. Wenn ein Gesamtpaket für den Zweck XY entwicklelt wurde, ist es wenig zielführend, alles zu zerrupfen und dann "reale" Einzelleistungen daraus ableiten zu wollen.
 
Zuletzt bearbeitet:
also wenn crytek so fleisig gezeigt hat, wie das ganze funktioniert ! vor allem wenn man es will !!!

so würde ich mal behaupten die spieleentwickler sind einfach zu faul für die extra rt programierung.

am liebsten wieder zu atari zeiten wieder zurück, so das man in wenigen wochen monaten sofort die spiele auf den markt wirft um schnell geld zu verdienen :ugly:

oder wie soll man diese spieleenwickler sonst verstehen ?
 
Im Prinzip ist das nichts neues. Programmierer sind faule Säcke und wollen immer mit dem weitermachen, was sie schon können. Wobei sich das von außen leicht sagen läßt. Das ganze benötigt entweder Spezialisten, die sich damit auskennen oder man muß seine Leute darauf hin schulen. Erstere sind sehr teuer und müssen ins Team integriert werden, letztes ist auch nicht billig und benötigt viel Zeit.

Am Anfang ist es nur eine kleine Speerspitze, die das nutzt. So läuft das mit allen Neuerungen, das braucht immer seine Zeit.

Was ist denn für dich "Ordentliches Raytracing"?

Ich mache das an zwei Punkten fest:
1: Kein all zu großer Leistungsverlust
2: Man sollte die Effekte auch sehen können.

Gerade bei letzteren gibt es immer wieder Probleme. HDR sticht einem geradezu ins Auge, besonders, wenn man weiß worauf man achten muß. Bei Battlefield 5 waren es dann Pfützen, deren Inhalt sich auch dann gespiegelt hat, wenn das, was gespiegelt wurde, nicht auf dem Bildschirmausschnitt zu sehen war. Ich meine schön, wenn man ganz genau, in einer ruhigen Szene, hinsieht, dann erkennt man es tatsächlich. Im echten Gamerleben wird man soetwas nicht bemerken. Bei Shadow of the Tombraider gab es tatsächlich etwas, da man wirklich sehen konnte: die Beleuchtung und die Schatten. Besonders bei den Reliefs konnte man das gut erkennen und man wußte sogar, was von beiden besser ist.

RTX ist der teuerste und frechste Witz aller Zeiten.

Wenn AMD, Nvidia und Intel es zusammen und vorallem einheitlich unterstützen, dann wird es sich sich Mittel bis langfristig auch durchsetzen. Wichtig ist, dass nicht jeder seinen eigenen Käse anbietet, dann gibt es wieder einen Formatkrieg. Freesync hat ja 8 Jahre gebraucht, bis es sich durchsetzen konnte, PhysX und diverse andere Dinge haben das bis heute nicht geschafft..

Ich hoffe auch dass sie sich 8k nicht durchsetzt bei der ps6 wenn sie bei 4k bleiben und eventuell auch machine learning benutzen habe ich keine bedenken mehr von raytracing bei der ps6 in (8jahren??)

8k zieht einfach viel zu viel Leistung 4k ist ja schon extrem bei den aktuellen Konsolen (ps5)wünsche ich mir lieber 1620p-1800p statt natives 4k die sollen die vorhandene Leistung lieber in die Optik stecken.

8K wird wohl bei der nächsten Konsolengeneration so dazugehören, wie 8K bei dieser. Wobei ich eine PS5 Pro und eine Series XX (??) erwarte, die das schon in dieser Konsolengeneration anbieten. Natürlich wird auch da dann nicht alles in 8K laufen, so wie jetzt nicht alles in 4K.

Wovon träumst du Nachts? Die Konsolen performen auf 2080 Niveau und die 3090 ist gerade mal doppelt so schnell! Und wir reden hier von dem 5 fachen-PC Preis gegenüber den Konsolen. :stupid:

Dennoch ist der PC wieder wesentlich besser und das sogar bevor die neuen Konsolen rausgekommen wird. Bis die neuen Konsolen einigermaßen ihre Stärke ausspielen können, dürften locker 2 Jahre vergehen. Bis dahin gibt es noch eine neue Kartengeneration. Bis die ultimativen Spiele rauskommen dauert es wohl über 5 Jahre, dann sind die neuen Konsolen uralt, so wie immer.
 
Die Entwickler haben schlicht kein bock Mehrarbeit durch RT die mit Sicherheit anfällt zu übernehmen, Zeit ist Geld :schief:. Mir war das von Anfang an klar das auch die neuen Konsolen jetzt nicht der "PointBreak" in Sachen RT werden, jedenfalls noch nicht diese GEN. Vermutlich dürfte Raytraycing wie seiner Zeit PhysX vor sich hin plätschern :rollen:.
 
Tomb Raider hat doch nur RT Schatten soweit ich weiß!?

Durch RT Schatten erhältst Du auch immer "kostenlos" RT Ambient Occlusion und Indirect Lighting/color bleed dazu.
Zudem hatte man die Möglichkeit mehrere Lichtquellen als "schattenwerfend" zu attributieren, da im Gegensatz zum rasterized tiled shadowing mit cascaded shadow maps der Rechenaufwand kaum mehr durch zusätzliche schattenwerfende Lichtquellen ansteigt.

Zack- haben wir schonmal eine Disziplin, in der RTRT schneller wäre, als das reine Rastern. Bei dynamischen Lichtquellen ab einer gewissen Zahl ....
 
Zuletzt bearbeitet:
Im Sinne von ausreichend Performance.
Ich denke Nvidia legt mit Ampere viel Wert darauf die RT Leistung zu erhöhen.

Genau das ist denke ich für manche auch ein Problem.
Es gibt viele die wollen mehr Rasterisierungs Leistung für 4K, höhere FPS und VR, aber solange man sich auf RT konzentriert wird das wohl nix.
Vorallem, wenn man bedenkt, dass die Grafik in Spielen ja auch immer anspruchsvoller wird und somit auch mehr Rasterisierungs Leistung benötigt wird.
Gutes Beispiel wäre da RDR2.
 
Durch RT Schatten erhältst Du auch immer "kostenlos" RT Ambient Occlusion und Indirect Lighting/color bleed dazu.
Zudem hatte man die Möglichkeit mehrere Lichtquellen als "schattenwerfend" zu attributieren, da im Gegensatz zum rasterized tiled shadowing mit cascaded shadow maps der Rechenaufwand kaum mehr durch zusätzliche schattenwerfende Lichtquelen ansteigt.

Zack- haben wir schonmal eine Disziplin, in der RTRT schneller wäre, als das reine Rastern. Bei dynamischen Lichtquellen ab einer gewissen Zahl ....

Ja stimmt schon, es wurde halt nur explizit Beleuchtung genannt, deshalb meine Aussage/Frage.
 
4K und RT kann man knicken, dass beißt sich und ist auch eins der Probleme. Selbst in "2K" kann man RT größtenteils vergessen. Also entweder Auflösung runter oder RT aus, beides irgendwie nicht im Sinne des Erfinders würde ich mal sagen :schief:. Und wie bereits gesagt: Hinzu kommt noch die massive Mehrarbeit die RT mit sich bringt. Das kost Recourcen und vor allem Kohle.
 
Zuletzt bearbeitet:
4K und RT kann man knicken, dass beißt sich und ist auch eins der Probleme. Selbst in "2K" kann man RT größtenteils vergessen. Also entweder Auflösung runter oder RT aus :schief:.
Dann lieber eine Dia Show. Auflösung runter, RT aus, Grafik Details reduzieren sind ein No Go. Auch wenn ion das anderes sieht, wie er mit seinen Artikeln immer wieder zeigt...
 
Kann nicht sein....
Wie oft mich hier leute angesprochen haben, OHNE RT kann man nicht zocken oder wer sich Grafikhardware OHNE RT kauft ist dumm (Sagt ja sogar der NVidia CO über seine eigenen Kunden die sind Dumm, da die meisten NVIDA Karten auch kein RT haben)


Ne, bestätigt mich wieder, bis jetzt ist RT so überflüssig wie ein Kropf.... kommt noch..
 
Ja aktuell fehlt die Power. Aber ich bin einer wenn das Spiel das hat, dann wird es auch genutzt, so lange ich keine Cineastischen Konsolen (30) fps habe ist alles gut.
 
Stimmt schon, dass sich dabei nicht viel tut, aber stell dich mal neben eine Pfütze z.B. oder such dir eine Szene in einem Spiel mit RT Reflexionen aus wo gerade auch nicht viel bis kaum etwas los ist und beobachte dann die Framerate aber ohne DLSS natürlich ;)

Sind stabil bei ~90 FPS in BF5 mit Ultra Settings 64 Spieler MP.
CoD läuft mit capped 160 FPS und RT + Ultra Settings.
 
Kann nicht sein....
Ne, bestätigt mich wieder, bis jetzt ist RT so überflüssig wie ein Kropf.... kommt noch..
Wie alle Dinge überflüssig wie ein Kropf sind, mit denen man selbst nichts anfangen kann, bzw. die man nicht nutzt.
Das heisst aber noch lange nicht, dass diese Einstellung eine universelle Gültigkeit für andere User besäße.
 
Es haben sich doch jetzt bereits mehrfach Entwickler und Experten negativ zur Xbox One Series X geäußert.

Die Konsole wird nachweislich um ein vielfaches schlechter in jeder Hinsicht als eine DEUTLICH ueberlegene Sony PS5™.

Da sind sich alle experten einig, auch wenn es in den Foren natuerlich verstreut noch Träumer und Trolle gibt die einer Xbox eine hoehere Leistungsfaehigkeit andichten wollen.
 
Jeder Entwickler entscheidet für sich, wie er das Budget an Rechenpower einsetzt, die das System anbietet.

Als Bild ergibt das ganze ein "magisches Viereck" mit den vier Ecken: Auflösung, FPS, Raytracing, Effekte. (Wahrscheinlich könnten man für AI, Mulitplayer, etc. noch Ecken hinzufügen) Jedes Spiel ist demnach ein Kompromiss, den der Entwickler trifft. Alle Ecken kann man nicht erreichen. Der Sweetspot liegt irgendwo in der Mitte und für jedes Spiel woanders. Durch die Einstellungen im Menu kann der Spieler das Ergebnis noch ein Stück nach eigenem Geschmack beeinflussen. Ende der Geschichte.

Was mir bei den tausenden von Threads dazu fehlt, ist die Akzeptanz (oder besser der Respekt) vor der Entscheidung des Entwicklers. Warum kann man nicht einfach mal akzeptieren, dass ein Team fünf Jahre lang an einem Spiel arbeitet und wahrscheinlich ein ziemlich gutes Feeling dafür hat, wie das Power-Budget am besten eingesetzt wird? Wenn der Entwickler ein 3rd Person Abenteuer mit vielen Effekten und RT-Pfützen haben will, dann wird es wahrscheinlich 30 FPS haben. Wer das nicht will, soll halt was anderes zocken. Schwer zu ertragen sind dabei Kommentare wie: Die Konsolen sind zu schwach für 120 FPS oder zu schwach für RT. Totaler Unsinn. Bei E-Sport Titeln wird das kein Problem. Bei Assasins Creed xy natürlich schon. Eine intelligente Skalierung der Auflösung ist dabei für mich ein genialer Fortschritt. Wer das als "Verarschung" empfindet, sollte es vielleicht ganz sein lassen. Verstehe auch nicht, dass es immer wieder in einem PC-Forum thematisiert wird. Das Thema kennt doch jeder von seiner Kiste zuhause. Warum sollte es bei den Konsolen jetzt nicht gelten?

Wenn irgendwann die Exklusivtitel von den eigenen Studios erscheinen und Raytracing in irgendeiner Form verpacken können, dann werden sich die anderen schon umschauen. Wenn ein Forza oder GT da einmal vorgelegt hat, wird es in Zukunft schwieriger, bei dem thematisierten Standpunkt zu bleiben.
 
Was ich mich schon länger frage, wäre es nicht simnvoll eine extra gpu nur für raytracing berechnungen praktisch zusätzlich zur "normalen gpu"

Aus den gleichen Gründen, warum wir nicht für irgend einen anderen Teilaspekt der Grafikdarstellung eine zweite GPU im Rechner haben: Es ist nur noch bedingt möglich, einzelne Effekte komplett unabhängig vom restlichen Bild zu berechnen und es ist praktisch unmöglich, alle nötigen Informationen zwischen zwei Karten innerhalb der für einen Frame zur Verfügung stehenden Zeit auszutauschen. Also müssten jede Menge Berechnungen auf beiden Karten parallel ausgeführt werden, nur um die Ergebnisse lokal vorrätig zu haben, und durch diese Aufwandsverdoppelung bringt die zweite Karte weniger Mehrleistung, als wenn man das gleiche Geld und den gleichen Strom in eine etwas größere Einzelkarte investiert.


Durch RT Schatten erhältst Du auch immer "kostenlos" RT Ambient Occlusion und Indirect Lighting/color bleed dazu.

Ersteres nur, wenn die gesamte Beleuchtung über RT erfolgt. Ambient Occlusion ist schließlich nichts anderes als ein ganz billiger Ansatz, um einen kleinen Teil realer, diffuser Lichtausbreitung mehr schlecht als recht zu immitieren, sodass eine komplett realistische Beleuchtung der gesamten Szene automatisch einen viel besseren Ersatz mitbringt. Vollständige Ausleuchtung mit RT kostet aber bei vielen Lichtquellen noch so viel Leistung, dass sie kaum praktiziert wird (Minecraft und auf Wunsch Metro Exodus sind die Regel-bestätigenden Gegenbeispiele), in Tom Raider können meinem Wissen nach nur einzelne Highlights getraced werden, die diffuse Beleuchtung und damit auch AO wird auf klassischem Wege gefaked. Indirekte Beleuchtung und damit Farbweitergabe geht noch einmal einen Schritt weiter als reine Raytraycing-Beleuchtung, dafür muss die Gesamte Szene mit kompletten Pathtraycing einschließlich zahlreicher Tertiärstrahlen (und größer) abgetastet werden. DAS ist definitiv alles andere als kostenlos. ("Umsonst" trifft es vielleicht. Weil niemand die resultierenden Frameraten tatsächlich nutzen würde, jedenfalls nicht in einem aktuellen Titel. Quake RT versucht sich an Raytraycing auf diesem Level...)
 
ZeroZerp als Verfechter der rationalen Betrachtung von technischem Fortschritt gegen die "hochqualifizierte" Community. Es ist ein Kampf gegen Windmühlen... :schief:

Raytraycing und DLSS haben technisch nichts miteinander zu tun. Letzteres ist ein reiner Post-Effekt und kann mit Bildmaterial aus beliebigen Renderquellen (und strengenommen sogar aus nicht rendernden), solange Nvidia diese einpflegt.

Soweit ich weiß, ist DLSS nicht nur Post Processing. Es muss wegen der temporalen Effekte an mehrere Stellen des Renderprozesses reinoperiert werden. Ich denke auch, dass es ansonsten schon viel mehr verbreitet wäre. DLSS 2.0 ist ja ziemlich universell und muss nicht auf ein konkretes Spiel angelernt werden.
 
Zurück