Cyberpunk 2077: Neue Raytracing-Screenshots von CD Projekt Red und Nvidia

Klar, das müssen sie ja sagen wenn es die AMD-Technik nicht hergibt.
Aber AMD-User sind es ja gewohnt immer etwas weiter zurückzuliegen.

Äh... AMD-User sind seit ner ganzen Weile dran gewöhnt, dass die Karten nicht die schnellsten sind. AMD User sind aber auch dran gewöhn, dass die Karten das neueste vom neuen können, und NV da ein oder zwei Gens hinterher dümpelt. Dass NV beim Raytraycing mal wieder erster war, hat mich echt überrascht.
 
Es ist der nächste Schritt hin zu Foto realistischer Grafik, das muss zwar nicht gehyped werden, allerdings supported oder zumindest mit etwas Interesse verfolgen.

Dachte das Forum ist technikinteressiert.


Die Adaptionsrate ist besser als bei Directx12.

Gebe dir vollkommen Recht.
Warum wurde DX12 eigentlich so aufgehalten und warum gibts jetzt auf einmal überall DX12 / Vulkan Titel?

...und warum ist die Antwort immer NV?
 
Gebe dir vollkommen Recht.
Warum wurde DX12 eigentlich so aufgehalten und warum gibts jetzt auf einmal überall DX12 / Vulkan Titel?

Vermutlich weil sich die Entwickler erst damit anfreunden mussten? Für kleinere Studios war das eine sehr schwere Geburt, man hat es auch aus diversen Interviews entnehmen können.

Software braucht ganz offensichtlich Zeit.
Die GPU Hersteller haben da allerdings wenig damit zu tun.
 
Mitnichten wäre Derartiges ein angebrachter Vergleich, eben weil die Lichtberechnung keinen solchen Einfluss auf die Qualität der optischen Darstellung (und damit die Immersion) hat, wie die von dir erwähnten Vergleiche. RT ist komplett oberflächlich, und auch dort nur ein kleiner Aspekt. Siehe zb. Quake 1 mit Raytracing. Sieht toll aus, aber selbst wenn es komplett (und nicht nur partiell) mit RT berechnet wird, wird es immer noch ganz genau so "unecht" empfunden wie das klassische Quake 1 - nur eben mit RT. Anders wäre es, wenn es Quake 1 mit ultra hoher geometrischer Komplexität wäre, und mit einer Oberfläche so detailliert, dass diese als "echt" empfunden wird - und auch mit einer Lichtberechnungen die nicht auf der "echten" Physik beruht.

Dann nämlich wäre der Unterschied durchaus wie die von dir genannten Beispiele. Aber eben nicht wenn es nur um die Lichtberechnung geht.
Mein Beispiel ist unabhängig von der Immersion richtig, weil jede Abweichung von der Realität, wozu ALLE Computerspiele gehören und auch alle Filme, Kunst darstellen. Bei Kunst entscheidet der persönliche Geschmack, was man besser findet. Manga Fans wollen überhaupt keinen Fotorealismus, sondern schätzen ihre Form der grafischen Abstraktion.
Wie Gamer das bezüglich der Immersion in Computerspielen einschätzen, ist davon völlig unabhängig. Ohne Raytracing wird es keine fotorealistischen Spiele geben, so wie es im Kino sonst auch keine fotorealistischen CGI-Effekte gäbe, eine Szene im Gesamtkonzept muss alle Faktoren berücksichtigen, nicht nur beleuchtung, das ist trivial. Da RT die rechenaufwendigste und damit hardwareseitig teuerste Methode der weiteren Entwicklung Richtung Fotorealismus ist, kann man ruhig weiter Texturen und Mesh verbessern, es ist Billiger für Gamer, bei der Beleuchtung zu sparen. Aber die Grenzen sind da langsam erreicht. Aus meiner Sicht war von Anfang an die Frage der Synergien der Entwicklung wichtiger, ob man es sich als führendes GPU Unternehmen leisten kann, auf diese Technologie dauerhaft zugunsten von Biased Engines zu verzichten und wie sich die Notwendigkeit auf Geschwindigkeit optimierter Renderer für den Game Bereich auf den Profi-Bereich auswirken wird und umgekehrt. Die Entwicklung hat mit der Titan Serie ja schon vor längerem begonnen und die 2080 ti ist im Prinzip eine Profi-GPU, die man abgespeckt hat um zu sehen, ob sich auch im Gamer Bereich dafür Verwendung finden lässt, ähnlich der Radeon VII, auch wenn manche Gamer das nicht begreifen wollen und als reine Preissteigerung sehen und RT als 08/15 Option. Im Prinzip hat man das Angebot um einen neue Enthusiasten Klasse erweitert, die sich nur noch wenige leisten können, die dafür aber auch professionell einsetzbar ist. Und das RT bei fortschreitender technischer Entwicklung dominieren wird, das erkennt man schon an den CGI-lastigen Kinofilmen. Wer da was mit Biased Engines dreht, der geht bestenfalls als B-Movie durch, eher schon als C-Movie. Das wird sich im Game Bereich wiederholen und auch ähnlich lange brauchen. Im Grunde einfach nachvollziehbar.

Das man alte Games auffrischt, ist nur eine Mischung aus PR für RT und der Tatsache geschuldet, das ältere Spiele so wenig Ressourcen brauchen, das moderne Grakas hohe Reserven für RT bereit stellen können. Quake 1 oder andere alte Spiele sind daher kein Maßstab, vergleichbar eher mit einem remastering alter Kinofilme. Man kann sich Klassiker ja auch noch auf einer alten VHS ansehen. Auf einem 4k TV wirkt das dann aber arg aus der Zeit gefallen. Also wird remastered. Das sind dann aber ganz schlechte Beispiele für die Qualität von 4k, HDR oder Immersion, da ist jeder mit moderner Technik gedrehte Film optisch besser, künstlerisch ist dann wieder alles Geschmackssache. Aber niemand wird das Potential neuer TV-Monitore an remasterten Klassikern messen wollen. Da muss man schon aktuelle Werke mit und ohne CGI oder RT vergleichen.
 
Zuletzt bearbeitet:
Vermutlich weil sich die Entwickler erst damit anfreunden mussten? Für kleinere Studios war das eine sehr schwere Geburt, man hat es auch aus diversen Interviews entnehmen können.

Software braucht ganz offensichtlich Zeit.
Die GPU Hersteller haben da allerdings wenig damit zu tun.

eeemmh, nein.

Den Anschiss zu haben wegen Mehraufwand können wir wirklich nicht vorschieben.
Ist noch "Ashes of Singularity" bekannt? Ein kleines Studio hat Mantel und dann spähter auch wieder zeitnah mal hurtich DX12 und Vulkan nachgeschoben. Absolut machbar.

Weiter kann man DICE nicht als negativ Beispiel nennen (kein Vorwurf) weil umgesetzt schnell aber nie brauchbar gewesen, auch heute wo sie beste Freunde mit NVidia sind.
Hier scheint es wirklich Schwierigkeiten mit der Engine zu geben.
 
Zuletzt bearbeitet:
Äh... AMD-User sind seit ner ganzen Weile dran gewöhnt, dass die Karten nicht die schnellsten sind. AMD User sind aber auch dran gewöhn, dass die Karten das neueste vom neuen können, und NV da ein oder zwei Gens hinterher dümpelt. Dass NV beim Raytraycing mal wieder erster war, hat mich echt überrascht.
Für RT braucht man Leistungsreserven, die Technologie konnte überhaupt nur von einem Unternehmen eingeführt werden, das über Leistungsreserven verfügt. Nimm mal die rx 5700 XT und die rtx 2070 und gehe davon aus, AMD hätte RT eingeführt, nVidia nicht. Dann hätte die 5700 XT ca. 15% weniger FPS in allen Spielen und die 2070 ohne RT entsprechend 15% mehr, gleichzeitg gäbe es nur wenige Spiele, die RT anbieten und diese würden bei RT on dann noch mal 20-30% langsamer. Das kann man sich als "zweiter" überhaupt nicht leisten, da wäre man in der Mittelklasse aber so was von Tot.
 
Zuletzt bearbeitet:
Das war damals offensichtlich, darüber haben auch diverse Gamerseiten berichtet.
NVIDIA hat die Entwickler beiDX11 unterstützt, aber nicht wenn es darum geht DX12 oder Vulkan verwenden zu wollen.

Die von dir genannten Userprofile finde ich über die Suchfunktion nicht.
Du selbst bist seit ca. 4 Monaten in diesem Forum, falls du irgenwelche alten User meisnt, frag ich mich woher du die da überhaupt kennen willst, schon sehr verdächtig.
 
Mich würde interessieren, ob CP 2077 auch auf dem PC auf Vulkan setzt. Für Googles Stadia müssen sie ja einen Vulkan-Renderer implementiert haben. Und Vulkan besitzt auch die entsprechenden Erweiterungen fürs Raytracing. Wenn es jedoch um Nvidias Raytracing geht, liest man meistens nur von DX12 und Windows.

Für mich, und vielleicht auch den ein oder anderen, ist das nicht ganz unwichtig. Denn falls CP 2077 auch auf dem PC die Vulkan-API unterstützen sollte, dürfte es nahezu ohne Einbußen bei der Performance auch unter Linux/Proton laufen. Ähnlich wie Doom, Wolfenstein und einige andere Titel, die auf Vulkan setzen. Und sogar das Raytracing könnte dann unter Linux funktionieren.
 
Zuletzt bearbeitet:
Zurück