Cyberpunk 2077: Raytracing ohne Exklusivität - auch auf RX-6000-Grafikkarten lauffähig

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Raytracing ohne Exklusivität - auch auf RX-6000-Grafikkarten lauffähig

Entgegen früherer Ankündigungen soll Raytracing in Cyberpunk 2077 nun doch schon zum Launch auf AMD-Grafikkarten funktionieren. CD Projekt setzt für das kommende Spiel auf Microsofts DXR-API, proprietäre Sondereffekte sind nicht vorgesehen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cyberpunk 2077: Raytracing ohne Exklusivität - auch auf RX-6000-Grafikkarten lauffähig
 
Einige frühe Raytracing-Titel sind hiervon aber leider ausgenommen, da sie auf Nvidias eigene Raytracing-API setzen, die im Gegensatz zu DXR auch unter Vulkan funktioniert. Das Raytracing in Quake II, Wolfenstein: Youngblood und JX3 ist dadurch bis auf weiteres also tatsächlich Nvidia-GPUs vorbehalten. Für die Zukunft ist aber bereits eine Schnittstelle in Arbeit, die auch das Raytracing unter Vulkan vereinheitlichen soll.
War es hier nicht so, dass Nvidia eine eigene RT-Lib für Vulkan geschrieben hatte, weil Vulkan zu dem Zeitpunkt oder sogar jetzt noch keine fertige RT API bietet?
Sollte es für AMD nicht möglich sein das gleiche zu tun?
 
Das Gegenstück ist doch für 2021 angekündigt... ich muss aber ehrlich sagen, das ich auf DLSS und Konsorten verzichten kann, spiele lieber in nativer Auflösung, damit braucht man nicht auf die Implementierung für ein Spiel warten.
und wie soll raytracing ohne dlss flüssig laufen? wenn du rtx weglässt fehlt dir gefühlt eine grafikstufe
 
und wie soll raytracing ohne dlss flüssig laufen? wenn du rtx weglässt fehlt dir gefühlt eine grafikstufe

Nicht wirklich... sind nur optionale Effekte, welche du alle auch ohne RT darstellen kannst, qualitativ je nach Effekt etwas geringer, aber da sind keine Welten zwischen. Außer man übertreibt es im Marketing wie bei Watch Dogs Legion und in echt sieht das Spiel dann extrem mittelmäßig aus...
 
@owned139 sicher ist das theoretisch möglich, dass AMD, wie nVidia auch eine eigene RT Implementierung für Vulkan entwickelt. Wird für bereits veröffentlichte Titel jedoch nichts bringen. Das Schreiben einer solchen API ist aber ja nur die halbe Miete. Die Developer müssen die neue Schnittstelle dann natürlich auch ansprechen. Das geht nicht von allein. Und dann stellt sich natürlich die Frage, ob es sich im Nachhinein lohnt, Entwicklungskosten in ein "altes" Spiel zu stecken, das den Zenit seines Umsatzes längst hinter sich hat.
 
War es hier nicht so, dass Nvidia eine eigene RT-Lib für Vulkan geschrieben hatte, weil Vulkan zu dem Zeitpunkt oder sogar jetzt noch keine fertige RT API bietet?
Sollte es für AMD nicht möglich sein das gleiche zu tun?
nVidia stellte im letzten Jahr die VK_NV_ray_tracing Extension für Vulkan bereit, da dieses zu der Zeit noch über keine entsprechende Funktionalität verfügte. Mittlerweile muss man nicht mehr darauf aufsetzen, da die Khronos Group vor einigen Monaten (im März) einen ersten Wurf der eigene VK_KHR_ray_tracing Extension bereitgestellt hat *), die recht ähnlich aufgebaut ist.
Intel hat bspw. bereits erste Treiberbestandteile für diese zur Verfügung gestellt, d. h. deren Xe-HPG wird gesichert Vulkan unterstützen. AMD wird sicherlich auch darauf (bzgl. des Vulkan-Supports) aufsetzen und nicht etwa eine eigene Extension bereitstellen (zumal AMDs Ressourcen deutlich beschränkter sind), denn die Notwendigkeit dafür ist mittlerweile weitestgehend entfallen. *)
Es bleibt lediglich zu beachten, dass die Khronos Group diesen ersten Wurf noch als "provisorisch" bezeichnet, d. h. Änderungen am API sind mit der Zeit absehbar, jedoch sollte das kein nennenswertes Hindernis darstellen.

*) Dennoch können Hersteller natürlich weiterhin zusätzliche Extensions bereitstellen, wenn diese einen nennenswerten Mehrwert bieten und Entwickler können sich dann überlegen, ob sie diese implementieren möchten. Da derartige Erweiterungen i. d. R. mehr Performance auf der jeweiligen Hardware bieten, spezielle Funktionalität bereitstellen oder grundsätzlich eine Funktionalität universell, leicht implementierbar und weitestgehend vorab getestet Verfügbar machen, ist das selten eine Schwarz/Weiß-Entscheidung und es wird immer Fälle geben, wo Entwickler darauf zurückgreifen werden und wo es sinnvoll, weil effizient ist.
Mit nun zwei Hardwareherstellern im Markt und bald auch gar dreien, werden Entwickler nun dennoch immer einen universell nutzbaren Renderpfad bereithalten. (Vor einiger Zeit war das schlicht nicht nötig, da AMD sich noch im Raytracing-Dornröschenschlaf befand ;-))

**) Konkret schrieb die Khronos Group im März zum ersten Release:
  • Set of provisional extension specifications are publicly available today for industry feedback
  • First beta developer drivers are shipping today
  • Coherent ray tracing framework seamlessly integrated into existing Vulkan functionality – flexible merging of rasterization and ray tracing
  • Familiar to users of existing proprietary ray tracing APIs but also introduces new implementation flexibility
  • Hardware agnostic – can be accelerated on existing GPU compute and dedicated ray tracing cores
  • Primary focus on meeting desktop market demand for both real-time and offline rendering
 
Zuletzt bearbeitet:
Nicht wirklich... sind nur optionale Effekte, welche du alle auch ohne RT darstellen kannst, qualitativ je nach Effekt etwas geringer, aber da sind keine Welten zwischen. Außer man übertreibt es im Marketing wie bei Watch Dogs Legion und in echt sieht das Spiel dann extrem mittelmäßig aus...
naja wies gemacht wird ist mir egal nur sehen die effekte schon geil aus
 
Sorry OT:
Nutzt hier auch jemand Dolby Atmos für das Spiel ? Gibt es im Microsoft Store für 17,99€ für Kopfhörer.
Cyberpunk 2077 unterstützt Dolby Atmos.
 
Nvidia und AMD sind beides Mitglieder der Khronos Gruppe vom der Vulcan entwickelt wird (https://www.khronos.org/members/list). Was diesen Standard angeht werden beide Kartenhersteller keine Probleme haben. Da sind alle Hersteller dabei wie Sony, Microsoft, AMD, Intel, Nvidia, Apple, Google und ääh Ikea? Ok, Vulcan by Ikea.

Nvidias Ansatz für Raytracing ist es jedoch spezialisierte Schaltkreise zu haben die nichts anderes machen als Raytracing. Ganz spezifisches Silizium für ganz spezifische Berechnungen. Trennung in Cuda Core und RT Core.

AMDs hat diese superspezialisierten Schaltkreise nicht. Eine AMD CU macht sowohl das was ein Cuda Core machen würde, als auch das was ein RT Core machen würde.

Der Vorteil bei Nvidia ist, dass spezialisierte Kerne wie die RT Cores effizienter sind, es ist mehr Leistung pro Chip-Oberfläche möglich. Allerdings ist der Nachteil, dass entweder Cuda Kerne oder RT Kerne zu einem Bottleneck werden können, daher muss Nvidia sehr gut vorausschauen können wie Cuda und RT Kerne gegeneinander zu gewichten sind. Bei der 2000er Serie war das Verhältnis nicht so optimal, daher ist der Zuwachs an RT Kernen bei der 3000er Serie sehr hoch und bei den Cuda Kernen weniger hoch.

Der Vorteil bei AMD ist, dass bei Raytracing OFF immer noch der gesamte Chip für Berechnungen genutzt werden kann. Nvidia hat in dem Fall totes Silizium das nichts macht. (weniger ein Problem auf Dauer, wenn alles nur noch RT benutzt). Der eigentliche AMD Vorteil ist, dass dort wo Nvidia forschen und gewichten muss, kann AMD sich einfach darauf konzentrieren immer mehr CUs in die 4nm, 3nm, etc Chips zu pressen und man bekommt eine gute Skalierung der Leistung. Nachteil ist, dass immer die gesamte CU auf den Prüfstand kommt, wenn es um Redesigns geht die mehr Leistung bieten. Das Risiko des Bottlenecks bei Nvidia hat auch den qucik & dirty fix der unabhängigen Skalierung beider Kerne.


Am PC wird sich denke ich Microsoft DXR durchsetzen, einfach weil es der kleinste gemeinsame Nenner ist und sowohl Nvidia als auch AMD Karten das einfach einschalten. Wenn sich ein Entwickler die Arbeit macht intensiv auf Vulcan zu optimieren, dann wird das in der Playstation und dem Raytracing dort seine Gründe haben. Aber selbst dann wird das eine Nvidia können.

Als Kunde kann man sich entspannt zurück lehnen und Preis/Leistung vergleichen.
 
[...] AMDs hat diese superspezialisierten Schaltkreise nicht. Eine AMD CU macht sowohl das was ein Cuda Core machen würde, als auch das was ein RT Core machen würde. [...]
Mir scheint du hast nicht verstanden, was die in den TMUs implementierten Intersection-Engines sind. Der wesentliche Unterschied zwischen AMD und nVidia ist, dass bei AMD die Raytracing-Prozessierung immer zwischen den TMUs und dem SP hin und her springt, da die TMUs immer nur einen einzelnen Box- oder Primitve-Test ausführen, jedoch hochgradig spezialisierte Hardwareeinheiten haben nun beide Hersteller implementiert.
nVidia's sogenannte RT Cores können lediglich ein wenig autonomer arbeiten, da sie einen Strahl bis zu einem Hit eigenständig nachverfolgen können, während beim AMD der SP zwischen jedem einzelnen Intersection-Test dazwischengeschaltet ist und einen nachfolgenden Test beauftragen muss.
Was am Ende im Allgemeinen performanter ist, bleibt abzuwarten. Im Augenblick sieht es eher danach aus, als wenn nVidia die bessere RT-Leistung abliefern würde, jedoch muss man hier möglicherweise noch ein paar Monate abwarten, bis man mit Software testen kann, die RDNA2 vollumfänglich berücksichtigt. Vielleicht können sie den vermeintlichen Nachteil dann ja (teilweise) ausbügeln?

"Der Vorteil bei AMD ist, dass bei Raytracing OFF immer noch der gesamte Chip für Berechnungen genutzt werden kann." - Nein, das ist falsch, die um die Intersection-Engines erweiterten TMUs können in dem Fall nur zum Teil genutzt werden, da die Hardwarelogik der Intersection-Engines in dem Falle ungenutzt brach liegt, ebenso wie bei nVidia. Spielt aber keine nennenswerte Rolle, da die Raytracing-Funktionalität in beiden Architekturen vergleichsweise wenig Waferfläche in Apsruch nimmt.
Ein erwähnenswerter und möglicher Nachteil bei AMD ist jedoch, dass die TMUs nur entweder Raytracing- oder Textur-Operationen pro Zeiteinheit ausführen können, aber nicht beides gleichzeitig. Aber hier müssen, wie schon gesagt, schlussendlich echte Tests zeigen, zu was diese Hardwareimplementation fähig ist.
 
Zuletzt bearbeitet:
Das Gegenstück ist doch für 2021 angekündigt... ich muss aber ehrlich sagen, das ich auf DLSS und Konsorten verzichten kann, spiele lieber in nativer Auflösung, damit braucht man nicht auf die Implementierung für ein Spiel warten.

So weit sind wir leider noch nicht, dass man beim RT auf DLSS verzichten kann.
Es sei denn natürlich man hat kein Problem mit sub 60 FPS.

Ich ahne böses was RT Performance auf AMD Karten betrifft, zumindest so lange es kein DLSS Pendant gibt.
Aber zumindest kann man mal rein schnuppern und ich hoffe, dass sich dann die Anti-RT Fraktion etwas verkleinert.
Wer es noch nicht Live bei sich Zuhause erlebt hat (und da kommen ja die meisten Stimmen her), wird 100%ig auch wenn nur aus Neugierde, RT mal einschalten.
Und ziemlich sicher werden einige ihre Meinung ändern, nicht was die FPS betrifft, aber die Optik.

Als Strahlenfanboy bin ich natürlich sehr froh, dass RT einer breiteren Masse zur Verfügung gestellt wird. :)
 
Sorry OT:
Nutzt hier auch jemand Dolby Atmos für das Spiel ? Gibt es im Microsoft Store für 17,99€ für Kopfhörer.
Cyberpunk 2077 unterstützt Dolby Atmos.
Habe auch Dolby Atmos, nutze es aber fast nur mit nicht unterstützten Spielen, aber auch da macht es einen großen Unterschied. Ich würde mir wünschen, das es deutlich mehr Spiele Unterstützen, jedoch steht Audio für die meisten Entwickler weit hinten an, zusammen mit guter KI und Physik.
 
So weit sind wir leider noch nicht, dass man beim RT auf DLSS verzichten kann.
Es sei denn natürlich man hat kein Problem mit sub 60 FPS.
Ist das nicht etwas pauschal? Es sind doch nach wie vor nur ein Bruchteil der Spieler in UHD unterwegs und mit geringeren Auflösungen, sollte da schon etwas Solides machbar sein. DLSS macht ja eigentlich genau das - es rendert zum Beispiel "nur" in WQHD und rechnet das Bild dann mit einem schlauen (KI-trainiertem) Modell auf UHD hoch. Wenn also die RT-Leistung reicht um die Effekte in UHD mit DLSS (WQHD) flüssig darzustellen, dann muss ja die RT-Leistung auch genügen um die Effekte in nativer WQHD-Auflösung darzustellen.
 
Finde ich toll, ich tippe aber dass eine RTX 3080 in RT auch ohne DLSS schneller ist wie eine 6800XT, und mit DLSS doch davonlaufen wird.
Ist derzeit echt schwer zwischen RTX 3080 und einer RX 6800XT zu entscheiden, warten wir mal die Tests ab.
 
Ein erwähnenswerter und möglicher Nachteil bei AMD ist jedoch, dass die TMUs nur entweder Raytracing- oder Textur-Operationen pro Zeiteinheit ausführen können, aber nicht beides gleichzeitig. Aber hier müssen, wie schon gesagt, schlussendlich echte Tests zeigen, zu was diese Hardwareimplementation fähig ist.
Eine der Verbesserungen an Cuda Cores war zuletzt in welcher Kombination ein Cuda Core Integer und Floating Point Berechnungen ausführen kann. Ich nehme an, dass was jetzt noch in abgetrennten RT Kernen passiert in Zukunft mit in den Cuda Kern wandert und dann wird es ähnlich laufen. Da wird sich der Befehlssatz pro Kern ähnlich aufblasen wie bei CPUs in den letzten 20 Jahren.

Wenn AMD pro Clockcycle eine RT und eine Texturoperation berechnen wollen, müssen sie die CU entsprechend umbauen. Hat Nvidia mit den Cuda Kernen genauso gemacht, nur halt im Hinblick auf INT und FP Operationen.

Ich denke jedoch AMD wird zufrieden sein, wenn die Leistung mit der Anzahl der CUs und dem Takt skaliert, denn der Umstieg von 7nm auf 5nm wird ordentlich Skalierung mit sich bringen. Selbst wenn Nvidia dann 10% schneller ist, dann werden das selten die 10% sein die den Unterschied zwischen geile Grafik und unspielbar machten. Damit werden Preis und Image weitaus mehr eine Rolle spielen.
 
Ist das nicht etwas pauschal? Es sind doch nach wie vor nur ein Bruchteil der Spieler in UHD unterwegs und mit geringeren Auflösungen, sollte da schon etwas Solides machbar sein. DLSS macht ja eigentlich genau das - es rendert zum Beispiel "nur" in WQHD und rechnet das Bild dann mit einem schlauen (KI-trainiertem) Modell auf UHD hoch. Wenn also die RT-Leistung reicht um die Effekte in UHD mit DLSS (WQHD) flüssig darzustellen, dann muss ja die RT-Leistung auch genügen um die Effekte in nativer WQHD-Auflösung darzustellen.

Ja, in der Tat sehr pauschal sogar.
Es kommt wirklich stark auf das Spiel, die Auflösung und die GPU an.
Ich hätte einen Roman schreiben müssen, deshalb hatte ich mich recht oberflächlich ausgedrückt.

Aber es ist ja kein Geheimnis. RT frisst dir nativ grundsätzlich die FPS vom Bildschirm, das ist wirklich heftig.
Ohne DLSS ist da oftmals kein angenehmes Spielgefühl machbar.

Beispiel Control. Ich spiele gerade die DLCs.
(Im übrigen ist das Spiel ja in aller Munde wegen RT, sollte es aber nicht nur, denn Control ist auch so ein wirklich gutes Spiel. Außergewöhnlich)
In UWQHD mit der 2080S komme ich auf so ~80FPS, mit DLSS auf 720p.
Ich habe da die goldene Mitte gewählt, DLSS knapp 900 irgendwas p und komme auf 50 - 70 FPS.
Ohne DLSS gar nicht daran zu denken, RT voll einzuschalten, ist ja auch ein Shooter.
Und hier jetzt nativ in ~900p zocken!? Das wäre schon eine ziemliche Matschepampe.

Im Grunde wissen wir ja noch nix bzgl. AMD RT Performance oder aber über die RT Performance in CP2077.

Was verstrahlt CP so alles? Reflexionen, Beleuchtung, Schatten, Umgebungsverdeckung.
Autsch, das wird krass. :)
 
Zurück