Unreal Engine 4: RTX Tech-Demo steht zum Download bereit

Funzt die Demo auch mit ner der 6000er?
Link
System Requirements
Operating SystemWindows 10 RS5 (Build 1809) or later
Verify your Windows build by typing winver in the Windows search bar.
GPUNVIDIA RTX and some GTX series cards with DXR support using the latest device drivers.
For more informatin, see NVIDIA's site here.
Wobei es generell in der UE4 Engine über die DX12 API läuft und theoretisch auch auf den AMD Karten funktionieren sollte. Ob die Tech Demo dafür aber ausgelegt ist, keine Ahnung.
 
Hab mir das kurze Video angesehen und muss sagen, dass ich die Demo nicht gut finde. Sieht aus wie ein Amnesia mit bisl RT drüber gestülpt. Sollten Tech-Demos nicht immer der Next-Level-Shit sein? Und da kommen die mit so einem detailarmen Dachboden daher. Reine RT-Demos, wo ich diese hier mit dazu zählen würde, gab es schon vorher. Also nix neues, langweilig...
 
Hab mir das kurze Video angesehen und muss sagen, dass ich die Demo nicht gut finde. Sieht aus wie ein Amnesia mit bisl RT drüber gestülpt. Sollten Tech-Demos nicht immer der Next-Level-Shit sein? Und da kommen die mit so einem detailarmen Dachboden daher. Reine RT-Demos, wo ich diese hier mit dazu zählen würde, gab es schon vorher. Also nix neues, langweilig...
Das ist eine interaktive Tech-Demo, skip mal durch das 17 Minuten Video, da sieht man so einige teils versteckte Details. Ein 2 Minuten Teaser Video ist da einfach nicht ausreichend.
 
Das ist eine interaktive Tech-Demo, skip mal durch das 17 Minuten Video, da sieht man so einige teils versteckte Details. Ein 2 Minuten Teaser Video ist da einfach nicht ausreichend.

Ok, hab ich gemacht.
Sieht abgesehen von den RT-Effekten trotzdem Kacke aus.
Ich bleib also dabei: nix neues und echt öde. :kaffee:
 
@CD LABS: Radon Project: Die Marbel-Demo sieht auch sehr beeindruckend aus, ist aber nicht mit der UE4-Demo vergleichbar. Die UE4-Demo ist ein GameEngine-Beispiel, wie es sich aktuell direkt in einer populären GameEngine realisieren lässt. Die Marbel-Demo dagegen läuft auf der Omniverse-Plattform (und kann deshalb auch nicht einfach "heruntergeladen" werden ;-)) und verwendet vollständiges Path Tracing. Das wird man so schnell (bis auf das wenig anspruchsvolle Mincraft und bspw. alte Quake-RTX) nicht in regulären Spiele zu sehen bekommen, weil das noch deutlich rechenaufwändiger ist. Die RTX 3090 in dieser Demo wird ausschließlich zum Rendering genutzt, Physik etc. werden voraussichtlich von anderen Omniverse-Modulen berechnet und leider fehlt auch ein FPS-Counter. Die Videovarianten zu der Demo laufen alle ausschließlich mit 30 Fps und man kann annehmen, dass die Geforce hier auch nicht wesentlich mehr schaffen wird in den höheren Auflösungen.

Meiner Meinung nach ist ein allgemeines Problem, dass es vielen Leuten schwer fällt zwischen der dargestellten Szene und dem Grafikstil und den technischen Hintergründen zu unterscheiden (und natürlich kommen dann noch vielfach grundlegende Brand-Vorbehalte und der eigenen Bias hinzu). So oder so ist die Attic-Demo jedoch sehr beeindruckend, denn auf herkömmliche Weise wäre das alles zum Teil nur sehr schwer und in anderen Teilen gar nicht realisierbar.
Die GI-Beleuchtung müsste aufwändiug gefaket werden mit Dutzenden von Fakelights, die zudem alle statisch wären, d. h. keine dynamischen Schatten und auch kein TimeOfDay, d. h. wenn die Zeit/Sonne eine Stunde weiterwandert, müsste man komplett neue Assets laden mit neu positionierten Lichtern und neu gebakten LightningMaps, extrem aufwändig und deshalb versucht man das i. d. R. zu vermeiden und passt stattdessen die Szene an die technischen, herkömmlichen Möglichkeiten an.
Beispielsweise die zwei planaren Spiegel im Attic könnte man simulieren durch ein Doppel-Rendering, indem man im Spiegel eine zweite Kamera positioniert (wie es in Hitman bspw. gemacht wird), jedoch geht das nur in stark vereinfachten Szene und die Spiegelung wird typischerweise mit verminderter Framerate und teilweise auch Auflösung gerendert. Für komplexe Szenen ist das undenkbar und würden die beiden Spiegel gar so stehen, dass man beide Spiegelflächen gleichzeitig einsehen könnte, wäre das ein Ding der Unmöglichkeit, da dann zwei Spiegel(kameras) und der reguläre Viewport gerendert werden müssten. Und die vielflächigen Spiegelungen der Sterne an der Decke oder Spiegelungen auf runden Flächen müssten per se weiter mit CubeMaps gefaket werden ... und die Liste geht noch deutlich weiter.

Dass sich das alles nur Schrittweise im Markt etablieren wird, ist vollkommen klar, was da heute jedoch schon möglich ist, ist m. M. n. dennoch beeindrucken und selbstredend muss hier auch eine Firma wie nVidia marketingtechnisch daran arbeiten, dass voranzutreiben zweifellos mit dem Ziel einer Absatzsteigerung, aber der Markt zieht auch seinen Nutzen daraus, denn die beschleunigen die Timeline und steuern auch jedem Menge Arbeitsstunden in Form von KnowHow bereit.
Für einen möglicherweise guten "bisher"- vs. "Raytracing"-Vergleich darf man bspw auf Hitman 3 hoffen. Der Titel hat einige sehr schöne Lösungen für eine gute und überzeugende Grafik implementiert, Raytracing soll jedoch noch nachgereicht werden (die Frage ist für was konkret?) und man kann dann vielleicht mal sehen was zusätzlich an visueller Qualität oben drauf gelegt werden kann.
Absolut gehypet *) sein wird man da zweifellos nicht, weil Hitman schon so sehr gut aussieht, jedoch dürfte es noch ein wenig besser werden und mit Raytracing wären hier noch weitere schöne Spielereien möglich. Beispielsweise könnte man 47 mit einer leuchtstarken Taschenlampe durch ein paar sehr dunkle Räume oder Keller schleichtn lassen und maximalen Nutzen aus der GI ziehen mit vollständig dynamischer Verschattungen ... Man darf gespannt sein, was Titel in 2022 bieten werden, zumal dann auch neue GPU-Gens anstehen.

Von den Konsolen darf man dagegen nicht allzu viel erwarten, weil deren Leistungsreserven zu beschränkt sind (insbesondere auf der PS5). Die können Raytracing für einige, wenige ausgewählte Effekte und ggf. sehr lokal nutzen, darüber hinaus wird es aber schwierig, aber dennoch werden auch die zu einer weiteren Verbreitung beitragen. Und AMD mit RDNA3 dann vielleicht auch. Aktuell sieht es ja nicht einmal danach aus, dass sie RDNA2 in nennenswerter Stückzahl in den Markt bekommen, d. h. über deren Current-Gen-Raytracing-Leistung braucht man sich derzeit bzgl. dem Markteinfluss noch nicht groß zu unterhalten.

*) Dieses "kein Hype"-Argument, das man bei manchem liest, ist per se nur eine Schutzbehauptung, da das schon grundlegend auf die reguläre Rastergrafik der letzten Jahre nicht mehr anwendbar ist. Gefühlt jedes Jahr ein neues Battlefield oder CoD und da gab es auch keine echten Hypes, aber die Grafik wird jedes Mal ein klein wenig besser und glaubwürdiger (auch hier ist es wichtig vom Grafikstil abzusehen, den der ist zumeist eine design- und weniger technische Entscheidung).
Würde ich das gehypet aus meiner Warte verwenden wollen, müsste ich vermutlich, um den Begriff guten Gewissens zu verwenden Titel aus 2020 mit Titel aus dem Jahre 2010 vergleichen. Das ist auch zumeist sehr subjektiv und wird gerne in einer "ich bin grundsätzlich dagegen"-Mentalität in völlig überzogener Weise verwendet. Realistischer als die Realität geht es nicht und wir sind heute schon grafisch sehr nahe dran (wenn man von Teilbereichen absieht) und manchmal sogar erschreckend nahe, wo ich dann hier und da durchaus dankbar für die Entscheidung zu einem eher comicähnlichen Grafikstil bin ...

@Pleasedontkillme: Nett, dass du raPid-81 vorwirfst ein "mega Verfechter" zu sein. War das nun vollkommen "wertfrei" gemeint, oder sollten da die typischen "du bist eh ein Fanboy, der nur mit einseitigen und gehaltlosen Behauptungen um sich wirft" mitschwingen?
Dem Vorwurf entziehst du nur selbst die Grundlage, indem du dich in deinem Post als kategroischer nVidia/RTX-Gegner darstellst, ganz abgesehen von dem blödsinnigen Demo-Vorschlag "schwarzes Bild vs. reguläres Rendering" um einen Aha-Effekt zu generieren. Und zu allem Überfluss scheinst du auch den primären Sinn und Zweck von DLSS nicht verstanden zu haben.
Du solltes dich vielleicht noch mal bemühen echte Argumente anzuführen und die Sachlage mal mit etwas emotionalem Abstand zu betrachten. Andernfalls könntest du es auch einfach bei einem Einzeiler der Art "Die aktuelle (Markt)Situation kotzt mich an" oder "Ich kann nVidia nicht leiden" belassen. Das würde dir und vor allem allen anderen viel Zeit ersparen und würde wohl nach aktuellem Stand deinen aktuellen Standpunkt deutlich präziser darlegen. ;-)
 
@CD LABS: Radon Project: Die Marbel-Demo sieht auch sehr beeindruckend aus, ist aber nicht mit der UE4-Demo vergleichbar. Die UE4-Demo ist ein GameEngine-Beispiel, wie es sich aktuell direkt in einer populären GameEngine realisieren lässt. Die Marbel-Demo dagegen läuft auf der Omniverse-Plattform (und kann deshalb auch nicht einfach "heruntergeladen" werden ;-)) und verwendet vollständiges Path Tracing. Das wird man so schnell (bis auf das wenig anspruchsvolle Mincraft und bspw. alte Quake-RTX) nicht in regulären Spiele zu sehen bekommen, weil das noch deutlich rechenaufwändiger ist. Die RTX 3090 in dieser Demo wird ausschließlich zum Rendering genutzt, Physik etc. werden voraussichtlich von anderen Omniverse-Modulen berechnet und leider fehlt auch ein FPS-Counter. Die Videovarianten zu der Demo laufen alle ausschließlich mit 30 Fps und man kann annehmen, dass die Geforce hier auch nicht wesentlich mehr schaffen wird in den höheren Auflösungen.
Okay, ich bereue es, die Marble-Demo in den Edit eingebaut zu haben. All das, was du nun erwähnt hast, war mir nämlich bereits bekannt; habe ich bei einem OffTopic-Edit aber halt nicht für erwähnenswert gehalten.
Meiner Meinung nach ist ein allgemeines Problem, dass es vielen Leuten schwer fällt zwischen der dargestellten Szene und dem Grafikstil und den technischen Hintergründen zu unterscheiden (und natürlich kommen dann noch vielfach grundlegende Brand-Vorbehalte und der eigenen Bias hinzu). So oder so ist die Attic-Demo jedoch sehr beeindruckend, denn auf herkömmliche Weise wäre das alles zum Teil nur sehr schwer und in anderen Teilen gar nicht realisierbar.
Dann ist ja gut für mich, dass ich ATI Toyshop nicht als eines der Positivbeispiele aufgeführt habe. :D
(als eine Demo, die sich wirklich durch exorbitant gutes Design auszeichnete)
Ernsthaft: Das Problem der Attic-Demo ohne RTX ist, dass das Level schlechter performed als viele der technisch anspruchsvollsten und dafür auch gelobten UE4-Projekte UND sie gleichzeitig vom Artdesign her schwach ist.
Die GI-Beleuchtung müsste aufwändiug gefaket werden mit Dutzenden von Fakelights, die zudem alle statisch wären, d. h. keine dynamischen Schatten und auch kein TimeOfDay, d. h. wenn die Zeit/Sonne eine Stunde weiterwandert, müsste man komplett neue Assets laden mit neu positionierten Lichtern und neu gebakten LightningMaps, extrem aufwändig und deshalb versucht man das i. d. R. zu vermeiden und passt stattdessen die Szene an die technischen, herkömmlichen Möglichkeiten an.
Beispielsweise die zwei planaren Spiegel im Attic könnte man simulieren durch ein Doppel-Rendering, indem man im Spiegel eine zweite Kamera positioniert (wie es in Hitman bspw. gemacht wird), jedoch geht das nur in stark vereinfachten Szene und die Spiegelung wird typischerweise mit verminderter Framerate und teilweise auch Auflösung gerendert. Für komplexe Szenen ist das undenkbar und würden die beiden Spiegel gar so stehen, dass man beide Spiegelflächen gleichzeitig einsehen könnte, wäre das ein Ding der Unmöglichkeit, da dann zwei Spiegel(kameras) und der reguläre Viewport gerendert werden müssten. Und die vielflächigen Spiegelungen der Sterne an der Decke oder Spiegelungen auf runden Flächen müssten per se weiter mit CubeMaps gefaket werden ... und die Liste geht noch deutlich weiter.
Alles absolut richtig --- doch ist der Attic-Demo-Standard mit deaktiviertem RTX eben gerade nicht, es dennoch alles zu versuchen, (was Wahnsinn wäre) sondern kaum etwas zu versuchen und trotzdem schlecht zu performen.
Dass sich das alles nur Schrittweise im Markt etablieren wird, ist vollkommen klar, was da heute jedoch schon möglich ist, ist m. M. n. dennoch beeindrucken und selbstredend muss hier auch eine Firma wie nVidia marketingtechnisch daran arbeiten, dass voranzutreiben zweifellos mit dem Ziel einer Absatzsteigerung, aber der Markt zieht auch seinen Nutzen daraus, denn die beschleunigen die Timeline und steuern auch jedem Menge Arbeitsstunden in Form von KnowHow bereit.
Unterschreibe ich.
 
Okay, ich bereue es, die Marble-Demo in den Edit eingebaut zu haben. All das, was du nun erwähnt hast, war mir nämlich bereits bekannt; habe ich bei einem OffTopic-Edit aber halt nicht für erwähnenswert gehalten.
Nur weil ich auf einen konkreten Post anworte, heißt das nicht, dass das dort beschrieben ausschließlich für diesen Poster bestimmt ist. Wir befinden uns hier in einem öffentlichen Forum und dementsprechend versuche ich hier durchaus weitergefasst "Wissen" zu vermitteln und auch Querlesern das Verständnis zu erleichtern und i. d. R. erspare ich mir ein explizites/unentwegtes "nicht für dich bestimmt und nicht für xy, aber vielleicht wissenswert für a und b". ;-)

Dann ist ja gut für mich, dass ich ATI Toyshop nicht als eines der Positivbeispiele aufgeführt habe. :D
(als eine Demo, die sich wirklich durch exorbitant gutes Design auszeichnete)
Ernsthaft: Das Problem der Attic-Demo ohne RTX ist, dass das Level schlechter performed als viele der technisch anspruchsvollsten und dafür auch gelobten UE4-Projekte UND sie gleichzeitig vom Artdesign her schwach ist.
Na wenn du ansonsten keine Probleme außer dem Artdesign hast ... das übrigens vollkommen subjektiv und damit schlicht eine Geschmacksfrage ist ;-)
Ob die Demo tatsächlich schlecht performt, weiß ich derzeit nicht zu bewerten, da ich meine UE4 derzeit runtergeworfen habe und aktuell würde mir das in Ermangelung einer RTX-Karte eh nicht allzu viel nützen. Texturen und Assets sehen zumindest nicht nach LowRes aus. Darüber hinaus ist das aber auch nur eine Demo und kein fertiges, bis in kleinste Detail feingeschliffenes (kommerzielles) Produkt und es steht auch die Frage im Raum, wie sich diese Hardcore-Auslegung auf die Nutzung sämtlicher nur denkbarer Raytracing-Features in dieser ersten Implementation auf die Renderpipeline auswirkt, wenn man die Effekte abstellt (bspw. wie viele Pipelineelemente werden tatsächlich auf herkömmliche, performantere Renderpfade umgebogen). Und darüber hinaus scheint hier derzeit auch noch ein inoffizieller Custom-Branch der UE4 zum Einsatz zu kommen, was auch schon wieder Fragen bzgl. der vorläufigen Performance aufwirft.
Am Ende ist das nur eine Demo und die tut genau das was sie soll, nämlich sämtliche möglichen Effekte zu demonstrieren in einer realen GameEngine und das tut sie meiner Meinung nach in ausreichendem Maße (und ist gar weitraus fortgeschrittener und repräsentativer als die lediglich für Präsentationen taugenden, rudimentären Demos, die damals beim Turing-Launch verwendet wurde).
Es steht dir natürlich frei das weiterhin auseinanderpflücken zu versuchen, jedoch zumindest mir persönlich erscheint das eher wie das Suchen nach dem sprichtwörtlichen Haar in der Suppe, nur welchem Zweck soll das dienen?

*) Das einzige, was mir zur Abrundung noch gefehlt hätte: Mit aktivierten Effekten wird auch der Avatar vollständig dargestellt, bspw. im Spiegel. Es wäre noch ein Plus gewesen, wenn der auch gemäß der Lichtsituation einen vollwertigen, realistischen Schatten geworfen hätte, was es aber auch erforderlich gemacht hätte, dass der auch im FPS-View vollständig durchsimuliert werden müsste, was zusätzliche Performance kostet. Es wäre aber schon cool gewesen, wenn man vor dem monddurchschienen oder sonnendurchfluteten Fenster herläuft und man auch seinen eigenen Schatten (mitsamt Animationsphasen) auf dem Boden und über den Möbeln herziehen sieht (natürlich aufgrund der GI stark abgeschwächt und weichgezeichnet, weil hier mit der Lichtsituation kein harter Schlagschatten entstehen würde, solange man nicht direkt in einem Fenster steht.)
 
Zuletzt bearbeitet:
Nur weil ich auf einen konkreten Post anworte, heißt das nicht, dass das dort beschrieben ausschließlich für diesen Poster bestimmt ist. Wir befinden uns hier in einem öffentlichen Forum und dementsprechend versuche ich hier durchaus weitergefasst "Wissen" zu vermitteln und auch Querlesern das Verständnis zu erleichtern und i. d. R. erspare ich mir ein explizites/unentwegtes "nicht für dich bestimmt und nicht für xy, aber vielleicht wissenswert für a und b". ;-)
So war es auch von meiner Seite aus nicht gemeint, sondern nur selbstironisch. Hmm, hätte vielleicht noch nen Smiley gebraucht. Oder vielleicht hätte ich auch besser verzichten sollen... (manche Dinge klappen im schriftlichen einfach nicht)
Na wenn du ansonsten keine Probleme außer dem Artdesign hast ... das übrigens vollkommen subjektiv und damit schlicht eine Geschmacksfrage ist ;-)
Naja, das Artdesign ist halt einfach ziemlich inkonsequent...
...unterm Strich ist die Optik (Grafik+Bildqualität+ Stil) halt schwach.
Die Kombi aus schwacher Optik und schlechter Legacy-Performance ist für eine Techdemo schon sehr ungünstig:
  1. Schwache Optik
    1. Erzeugt selbst bei interessierten Usern wenig Freude
    2. Lässt sich nicht für Marketing ausschlachten
    3. Wirkt schlampig
  2. Schlechte Legacy-Performance
    1. Wirkt unehrlich
    2. Lässt auch die neuen Features nicht strahlen
      1. Der "hach, wie cool wäre das, wenn es auch flüssig ginge"-Effekt fällt schwächer aus
Wo ich vorhin die Toyshop-Demo erwähnt habe: Stell dir die technolischen Finessen der TheAttic-Demo einfach mal auf einer stilistischen und inhaltlichen Basis wie von Toyshop vor, kombiniert mit einer ernsthaften Legacy-Implementierung. Das würde rocken.

Am Ende ist das nur eine Demo und die tut genau das was sie soll, nämlich sämtliche möglichen Effekte zu demonstrieren in einer realen GameEngine und das tut sie meiner Meinung nach in ausreichendem Maße (und ist gar weitraus fortgeschrittener und repräsentativer als die lediglich für Präsentationen taugenden, rudimentären Demos, die damals beim Turing-Launch verwendet wurde).
Gerade die waren deutlich gelungener. Simple, aber konsequent durchgezogene Standard-Optik. Schade, dass sie (meinem letzten Stand nach) nicht öffentlich verfügbar gemacht wurden.
Es steht dir natürlich frei das weiterhin auseinanderpflücken zu versuchen, jedoch zumindest mir persönlich erscheint das eher wie das Suchen nach dem sprichtwörtlichen Haar in der Suppe, nur welchem Zweck soll das dienen?
Haar in der Suppe suchen ist nur dann Unsinn, wenn man eh keine Suppen mag. Ich mag TechDemos aber generell und möchte ergründen, warum mich diese hier so abstößt.
 
Finde die Demo echt nett. Tolle Effekte. Und sie zeigt auch das was sie soll. Ist bisschen kindisch gehalten. Aber das Stört mich jetzt nicht. Performance ist echt gut für ne Demo. In 1080P 150FPS / in 2160P 65 FPS. Alles Aktiviert DLSS on.
 
Naja, das Artdesign ist halt einfach ziemlich inkonsequent [...]
Die Darstellung in der Demo hält sich eigentlicht recht stringent an ihr Artdesign, von daher aus meiner Sicht alles gut und keine Inkonsistenzen (einzig der Avatar ist recht "einfach" gehalten, kann aber auch nur im Spiegelbild betrachtet werden, also wenig interessant). Abgesehen davon, würden mich in diesem konkreten Kontext hier Abweichungen auch nur wenig interessieren, da es eine Techdemo ist und mich dementsprechend die Demonstration der technischen Features und ihr Zusammenspiel interessiert. Ob das hier nun in einem Dachkinderzimmer, einer Piratenhöhle oder einem SciFi-Szenario stattfindet, ist mir eherlich gesagt reichlich egal, ebenso ob es versuchen würde hyperrealistisch zu sein oder einen extremen Comic-Look verwenden würde (bis auf das DLSS sind alle demonstrierten Features von der Art der Darstellung unabhängig.).
Darüber hinaus verstehe ich nicht warum du den "Toyshop" als angeblich hervorzuhebenden Gegenvergleich anführtst. Sofern es hier nicht etwas gleichnamig Neueres gibt, ist das ein absolut steinaltes Möhrchen, dass dieser Demo hier absolut nichts entgegenzusetzen hat. Da ist jede Demo der letzten 5 - 8 Jahre besser, ok, vielleicht mal mit Ausnahme von AMDs Raytracing-Fehlgriff. Selbst jede CryEngine-Demo der letzten Jahre war da um Meilen eindrucksvoller und auch das Artdesign des "Toyshop" wartet hier mit nichts Besonderem auf; ist mir ein Rätsel, warum du den derart oft zitierst (nostalgische Gedanken? ;-)).

Gerade die waren deutlich gelungener. Simple, aber konsequent durchgezogene Standard-Optik. Schade, dass sie (meinem letzten Stand nach) nicht öffentlich verfügbar gemacht wurden.
Mittlerweile scheint mit eher, dir geht es hier gar nicht um die Technikdemo, sondern du scheinst eher schlicht einen bestimmten Grafikstil zu bevorzugen und dessen Fehlen bemängelst du hier ... nur das geht vollkommen am Thema und Sinn und Zweck dieser Demo vorbei.
Über Geschack lässt sich bekanntlicht streiten und das ist dann auch der Punkt an dem ich mich ausklinke, weil das in einem Forum wie diesem nichts für mich ist. ;-)

Haar in der Suppe suchen ist nur dann Unsinn, wenn man eh keine Suppen mag. Ich mag TechDemos aber generell und möchte ergründen, warum mich diese hier so abstößt.
"Das Haar in der Suppe suchen" ist in vielleicht 98 % aller Fälle Unsinn, wenn man den Begriff nicht überstrapaziert, da es nur sehr wenige Fälle gibt, in denen Perfektion erstrebenswert ist oder gar realisiert werden sollte. In allen anderen Fälle ist es schlicht eine unnötige Verschwendung von Ressourcen.
 
Zuletzt bearbeitet:
2160p @ 6900XT
Screenshot (187)_e.jpg

1080p Fullscreen ist irgendwie broken. Da wird der PS2 Mode aktiviert :D
Screenshot (188).png
 
Mittlerweile scheint mit eher, dir geht es hier gar nicht um die Technikdemo, sondern du scheinst eher schlicht einen bestimmten Grafikstil zu bevorzugen und dessen Fehlen bemängelst du hier ... nur das geht vollkommen am Thema und Sinn und Zweck dieser Demo vorbei.
Absolut nicht, die Prioritäten sind klar anders herum:
Mir missfällt die schwache Performance und das wenig konsequent durchgezogene Artdesign kommt oben als zusätzlicher Nerffaktor obendrauf. Dieser Nerffaktor ist schon länger da, er prägte auch die letzten 3D-Marks seit Firestrike (große Teile der 3DMarks sehen super aus, große Teile sehr billig; das ist nicht clever) aber er steht hier ganz eindeutig an zweiter Stelle. Die schwache Performance ohne RTX im Vergleich zu den zig UE4-Titeln, die ähnliche Szenen beinhalten, missfällt mir mit weitem Abstand am meisten.

Darüber hinaus verstehe ich nicht warum du den "Toyshop" als angeblich hervorzuhebenden Gegenvergleich anführtst. Sofern es hier nicht etwas gleichnamig Neueres gibt, ist das ein absolut steinaltes Möhrchen, dass dieser Demo hier absolut nichts entgegenzusetzen hat. Da ist jede Demo der letzten 5 - 8 Jahre besser, ok, vielleicht mal mit Ausnahme von AMDs Raytracing-Fehlgriff. Selbst jede CryEngine-Demo der letzten Jahre war da um Meilen eindrucksvoller und auch das Artdesign des "Toyshop" wartet hier mit nichts Besonderem auf; ist mir ein Rätsel, warum du den derart oft zitierst (nostalgische Gedanken? ;-)).
Ich hatte doch vorher auch von anderen alten Demos gesprochen, Dawn, Frogger, SuperSonicSledge, die wiesen und weisen alle diesen Nerffaktor nicht auf. Alte Demos zu nennen halte ich dem Kontext einfach für sinnvoller, damit klar ist, dass es schon lange besser geht und es nicht nur um einzelne Ausnahmen ging. Aber nach wie vor: Es ist bloß ein Nerffaktor und nichts kritisches. Anders gesagt: Ich würde mich freuen, wenn wir das Thema ruhen lassen könnten und die schwache Non-RTX-Performance in den Fokus nehmen würden...
 
Diskussionen über Demo A, B oder C sind eigentlich net das Thema.

Interessant ist eher das Faetureset von dem Showcase hier.
Nach m.E. kann RDNA2 nur die linearen RT-Geschichten ala Port Royal gut.
Translucency+Illumination hauen zu sehr rein!

Wäre mal interessant wie es Turing ergeht.
Die 2 zusätzlichen Features sind offensichtlich nur mit Ampere in nem "Singlepass" zu schaffen.
(Falls CP2077 auch Sowas benutzt, wundert mich der Leistungsabfall von RDNA2 dann gar net mehr.
Günstig wäre in Games die Möglichkeit, solche Features gezielt on/off setzen zu können, net das ala Metro
auf einmal advanced PhysX als default ON ausgeliefert wird.)
 
@CD LABS: Radon Project: Die Marbel-Demo sieht auch sehr beeindruckend aus, ist aber nicht mit der UE4-Demo vergleichbar. Die UE4-Demo ist ein GameEngine-Beispiel, wie es sich aktuell direkt in einer populären GameEngine realisieren lässt. Die Marbel-Demo dagegen läuft auf der Omniverse-Plattform (und kann deshalb auch nicht einfach "heruntergeladen" werden ;-)) und verwendet vollständiges Path Tracing. Das wird man so schnell (bis auf das wenig anspruchsvolle Mincraft und bspw. alte Quake-RTX) nicht in regulären Spiele zu sehen bekommen, weil das noch deutlich rechenaufwändiger ist. Die RTX 3090 in dieser Demo wird ausschließlich zum Rendering genutzt, Physik etc. werden voraussichtlich von anderen Omniverse-Modulen berechnet und leider fehlt auch ein FPS-Counter. Die Videovarianten zu der Demo laufen alle ausschließlich mit 30 Fps und man kann annehmen, dass die Geforce hier auch nicht wesentlich mehr schaffen wird in den höheren Auflösungen.

Meiner Meinung nach ist ein allgemeines Problem, dass es vielen Leuten schwer fällt zwischen der dargestellten Szene und dem Grafikstil und den technischen Hintergründen zu unterscheiden (und natürlich kommen dann noch vielfach grundlegende Brand-Vorbehalte und der eigenen Bias hinzu). So oder so ist die Attic-Demo jedoch sehr beeindruckend, denn auf herkömmliche Weise wäre das alles zum Teil nur sehr schwer und in anderen Teilen gar nicht realisierbar.
Die GI-Beleuchtung müsste aufwändiug gefaket werden mit Dutzenden von Fakelights, die zudem alle statisch wären, d. h. keine dynamischen Schatten und auch kein TimeOfDay, d. h. wenn die Zeit/Sonne eine Stunde weiterwandert, müsste man komplett neue Assets laden mit neu positionierten Lichtern und neu gebakten LightningMaps, extrem aufwändig und deshalb versucht man das i. d. R. zu vermeiden und passt stattdessen die Szene an die technischen, herkömmlichen Möglichkeiten an.
Beispielsweise die zwei planaren Spiegel im Attic könnte man simulieren durch ein Doppel-Rendering, indem man im Spiegel eine zweite Kamera positioniert (wie es in Hitman bspw. gemacht wird), jedoch geht das nur in stark vereinfachten Szene und die Spiegelung wird typischerweise mit verminderter Framerate und teilweise auch Auflösung gerendert. Für komplexe Szenen ist das undenkbar und würden die beiden Spiegel gar so stehen, dass man beide Spiegelflächen gleichzeitig einsehen könnte, wäre das ein Ding der Unmöglichkeit, da dann zwei Spiegel(kameras) und der reguläre Viewport gerendert werden müssten. Und die vielflächigen Spiegelungen der Sterne an der Decke oder Spiegelungen auf runden Flächen müssten per se weiter mit CubeMaps gefaket werden ... und die Liste geht noch deutlich weiter.

Dass sich das alles nur Schrittweise im Markt etablieren wird, ist vollkommen klar, was da heute jedoch schon möglich ist, ist m. M. n. dennoch beeindrucken und selbstredend muss hier auch eine Firma wie nVidia marketingtechnisch daran arbeiten, dass voranzutreiben zweifellos mit dem Ziel einer Absatzsteigerung, aber der Markt zieht auch seinen Nutzen daraus, denn die beschleunigen die Timeline und steuern auch jedem Menge Arbeitsstunden in Form von KnowHow bereit.
Für einen möglicherweise guten "bisher"- vs. "Raytracing"-Vergleich darf man bspw auf Hitman 3 hoffen. Der Titel hat einige sehr schöne Lösungen für eine gute und überzeugende Grafik implementiert, Raytracing soll jedoch noch nachgereicht werden (die Frage ist für was konkret?) und man kann dann vielleicht mal sehen was zusätzlich an visueller Qualität oben drauf gelegt werden kann.
Absolut gehypet *) sein wird man da zweifellos nicht, weil Hitman schon so sehr gut aussieht, jedoch dürfte es noch ein wenig besser werden und mit Raytracing wären hier noch weitere schöne Spielereien möglich. Beispielsweise könnte man 47 mit einer leuchtstarken Taschenlampe durch ein paar sehr dunkle Räume oder Keller schleichtn lassen und maximalen Nutzen aus der GI ziehen mit vollständig dynamischer Verschattungen ... Man darf gespannt sein, was Titel in 2022 bieten werden, zumal dann auch neue GPU-Gens anstehen.

Von den Konsolen darf man dagegen nicht allzu viel erwarten, weil deren Leistungsreserven zu beschränkt sind (insbesondere auf der PS5). Die können Raytracing für einige, wenige ausgewählte Effekte und ggf. sehr lokal nutzen, darüber hinaus wird es aber schwierig, aber dennoch werden auch die zu einer weiteren Verbreitung beitragen. Und AMD mit RDNA3 dann vielleicht auch. Aktuell sieht es ja nicht einmal danach aus, dass sie RDNA2 in nennenswerter Stückzahl in den Markt bekommen, d. h. über deren Current-Gen-Raytracing-Leistung braucht man sich derzeit bzgl. dem Markteinfluss noch nicht groß zu unterhalten.

*) Dieses "kein Hype"-Argument, das man bei manchem liest, ist per se nur eine Schutzbehauptung, da das schon grundlegend auf die reguläre Rastergrafik der letzten Jahre nicht mehr anwendbar ist. Gefühlt jedes Jahr ein neues Battlefield oder CoD und da gab es auch keine echten Hypes, aber die Grafik wird jedes Mal ein klein wenig besser und glaubwürdiger (auch hier ist es wichtig vom Grafikstil abzusehen, den der ist zumeist eine design- und weniger technische Entscheidung).
Würde ich das gehypet aus meiner Warte verwenden wollen, müsste ich vermutlich, um den Begriff guten Gewissens zu verwenden Titel aus 2020 mit Titel aus dem Jahre 2010 vergleichen. Das ist auch zumeist sehr subjektiv und wird gerne in einer "ich bin grundsätzlich dagegen"-Mentalität in völlig überzogener Weise verwendet. Realistischer als die Realität geht es nicht und wir sind heute schon grafisch sehr nahe dran (wenn man von Teilbereichen absieht) und manchmal sogar erschreckend nahe, wo ich dann hier und da durchaus dankbar für die Entscheidung zu einem eher comicähnlichen Grafikstil bin ...

@Pleasedontkillme: Nett, dass du raPid-81 vorwirfst ein "mega Verfechter" zu sein. War das nun vollkommen "wertfrei" gemeint, oder sollten da die typischen "du bist eh ein Fanboy, der nur mit einseitigen und gehaltlosen Behauptungen um sich wirft" mitschwingen?
Dem Vorwurf entziehst du nur selbst die Grundlage, indem du dich in deinem Post als kategroischer nVidia/RTX-Gegner darstellst, ganz abgesehen von dem blödsinnigen Demo-Vorschlag "schwarzes Bild vs. reguläres Rendering" um einen Aha-Effekt zu generieren. Und zu allem Überfluss scheinst du auch den primären Sinn und Zweck von DLSS nicht verstanden zu haben.
Du solltes dich vielleicht noch mal bemühen echte Argumente anzuführen und die Sachlage mal mit etwas emotionalem Abstand zu betrachten. Andernfalls könntest du es auch einfach bei einem Einzeiler der Art "Die aktuelle (Markt)Situation kotzt mich an" oder "Ich kann nVidia nicht leiden" belassen. Das würde dir und vor allem allen anderen viel Zeit ersparen und würde wohl nach aktuellem Stand deinen aktuellen Standpunkt deutlich präziser darlegen. ;-)
Auf deine letzte Frage hin, ja ich könnte mich sogar noch kürzer halten; " Ich kann was NVidia macht nicht ausstehen", würde allerdings schon reichen (als Essenz).
Empfehle ich dir auch. Deine Bibel zu lesen war echt zuviel.

Dies soll genau so wenig herabwertend gemeint sein wie der Kommentar gegenüber dem wertgeschätzen @raPid-81.
Ich lese doch in seinen Aussagen ständig pro NV Tech Aussagen. Aber Er informiert sich gerne und sieht auch andere Seiten. Ich schätze seine Beiträge.

Generell meine ich bei weitem nicht, dass jeder meiner Meinung sein muss. Jedoch offensichtliches leugnen geht nicht.
Schade, dass du mein Beispiel nicht verstanden hast. Selbstverständlich kann man nur gleiches miteinander sauber vergleichen. Wenn nicht ein gegen-Effekt da ist, und die gibt es ohne RTX, dann kann man auch nicht off mit on vergleichen.
(anderes Beispiel) Machen ja auch nicht ein Stromverbrauchstest, dein System gegen meins. Ich ziehe den Stecker.
Vielleicht zu extrem für dich.
Link

Wobei es generell in der UE4 Engine über die DX12 API läuft und theoretisch auch auf den AMD Karten funktionieren sollte. Ob die Tech Demo dafür aber ausgelegt ist, keine Ahnung.
Danke noch für den Link probiere ich gleich morgen.
 
Zuletzt bearbeitet:
Wo der Unterschied zu finden sein soll? Ernsthaft? Sorry, aber ich kann solche Aussagen nicht Ernst nehmen.

RT-Schatten sehen endlich mal realistisch aus, im Gegensatz zu dem bisherigen shadow mapping. Der Design-Aufwand sinkt massiv.

RT-Global Illumination sieht massiv besser aus als Faked-GI was durch manuelles platzieren von Lichtquellen erzeugt wird, denn dabei fehlt der dynamische Farbverlauf in Reflektionen komplett. Der Design-Aufwand sinkt massiv.

RT-Reflections, auch kein Vergleich zu den Screen-Space-Reflections was Realismus und Qualität angeht (auch wenn es gute Screen-Space-Reflection Umsetzungen gibt). Der Design-Aufwand sinkt massiv.

Den Vergleich zu baked/faked Methoden zeigen sie doch?!

Mag sein dass viele RT/DLSS noch nicht wahrhaben wollen. Alle neuen Konsolen, Grafikkarten und angekündigte Grafikkarten sprechen aber eine andere Sprache. NV, AMD, Intel, alle ernstzunehmenden Hersteller integrieren RT Cores und werkeln an DLSS Pendants...

Edit: Dass man den Unterschied zwischen nativ und DLSS nicht/kaum sieht ist doch gerade gut. Du solltest vielleicht mal die FPS Anzeige oben rechts beachten wenn DLSS aktiviert wird. Das hat nichts mit Diagonale des Monitors zu tun, da kommen einfach mal fast doppelte FPS raus bei gleicher Bildqualität...


Grafikkarte mit KFZ vergleichen passt doch sehr gut. Es gibt Leute die damit arbeiten und Leute die es als Hobby betrachten. Die Preise sind auch vergleichbar, Luxus-Modelle kosten bei beiden Beispielen eben das vielfache eines Basis-Modells.
Gerade bei Schatten, welche ich immer runterstelle weil der Performance Hit seit jeher nicht mehr Verhältnismässig ist, unterscheidet sich kaum von aktuelleren, sogar NVs eigenen, Techniken. Die Unterschiede sind super minim im Standbild mit Lupe und endlosen Diskussionen über physikalische Korrektheit zu finden. Ausnahme, die Sichtbarkeit/Ausleuchtung von Räumen (Dinge die im Schatten liegen) nicht immer nur positiv.
Zumal die Umsetzungen in vielen Spielen mit Fehldarstellungen, zum Beispiel mit darstellung durch Levelgeometrie hindurch zu kämpfen hat.
Globale Beleuchtung. Das gefällt mir zwar schon eher aber wir müssen doch mal ganz erlich sein. Das vorgebackene moderner Spiele sieht minim anders aus (sage nicht schlechter!).
Den Unterschied bis hin zu diesen zwei Effekten kann auf diesem Planeten kein Nichtgamer oder Leveldesigner nennen. Von dennen dann, vielleicht noch die hälfte, wenn noch Zeit und Lupe noch etwas mehr. Was soll das werden?

Screenspace Reflection ist was anderes. Hier sehen viele Spiele einfach schlecht aus. Schlimmstes Beispiel HUNT. Ich bitte drum, entweder komplett off oder RT oder Voxel-based Global Illumination (SVOGI). Die Nutzung ist katastrophal!!

Richtig geil und hier hast du rech, wird zukünftig viel Arbeitsstunden damit gespart werden! Allen voran mit dem Ansatz von UE5 mit integriertem Level of Detail.
Braucht aber dafür jeder eine RT fähige Karte? Nein, einmal vorgefertigt kann man doch das so jedem servieren? Nicht immer ist es eine Open World mit Zyklen. Passt doch und spart erst noch.

DLSS, naja mal sehen.
KI ist ein super geiles tool und Grakkas vorweg wird es die Welt verändern.
Schon mal Physikberechnung per KI Einheit gesehen? PhysiX aber richtig.
 
Zuletzt bearbeitet:
Translucency+RTX Illumination würde ich dann aber OFF stellen,
kostet unverhältnismäßig viel Fps.
Das ist doch ne Techdemo, um sich Features live anzusehen und kein Wettbewerb ;)

Davon ab läuft die Demo auf der 6900XT selbst ohne RT wie Kraut und Rüben, eine Optimierung für RDNA 2 ist logischerweise nicht vorhanden. Ich bin also nicht sicher, wie repräsentativ das ganze mit AMD ist. Auch wenn der Trend natürlich kar ist.


Generell bräuchte ich eh mindestens 4fache RT-Leistung, um Raytracing wirklich ernsthaft nutzen zu können.
Von daher fällt das für mich mit aktuellen Generationen eher unter das Motto "reinschnuppern".
 
Zurück