Cyberpunk 2077: Gameplay-Video mit Raytracing und DLSS auf RTX-3000-Grafikkarte

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Gameplay-Video mit Raytracing und DLSS auf RTX-3000-Grafikkarte

Nvidia hat ein Video mit Ingame-Ausschnitten aus Cyberpunk 2077 veröffentlicht, das die aktuelle Grafik mit aktiviertem RTX und DLSS zeigt. Ob die präsentierte, gut gelungene Optik nur aus einigen Showcase-Szenen stammt, oder ob das gesamte Spiel so ansehnlich sein wird, kann derzeit aber natürlich noch nicht eingeschätzt werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cyberpunk 2077: Gameplay-Video mit Raytracing und DLSS auf RTX-3000-Grafikkarte
 
Gutes Marketing von Nvidia. Man "bucht" sich das hübscheste Spiel und sagt das ist Raytracing.
Teilweise sieht es toll aus. In Raytracing geht aber noch so viel mehr!

Als die Entwicklung von Cybeerport bekann, gab es Raytracing praktisch gesehen in Spielen nicht.
Irgendwann hat man also RT implementiert. Vermutlich aus Marketing Überlegungen. Vielleicht überlegte man, wo ist AMD schwach? Egal warum, es ist gut das Raytracing ein Thema ist, und Spiele hübscher werden.

Zu behaupten, dass nur Nvidia RT kann (so soll es zur Zeit wohl aussehen) stimmt nicht. RT wird ja Zeit Jahren für 3D Programme (Maya, Cinema 4D, etc. benutzt). Das kommt jetzt in die Spiele. Toll, davon habe ich schon vor 10 Jahren geträumt.

Vermutlich steige ich in 2 Jahren ein. RT ist noch nicht so gut wie die Werbung. Aber es ist ein Anfang.
Zur Erinnerung: Mit der TI 2080 schwärmte Nvidia von RT als unerreicht usw. . Das ist 2 Monate her (und die Leistung ist aus heutiger Sicht schon veraltet).

AMD wird vermutlich in 2 Jahren kontern. Zu viel Macht mit den Konsolen wird helfen.

Aber schön, dass jeder RT haben will. Ich auch und noch viel mehr.
 
Zuletzt bearbeitet:
Vermutlich steige ich in 2 Jahren ein. RT ist noch nicht so gut wie die Werbung. Aber es ist ein Anfang.
Zur Erinnerung: Mit der TI 2080 schwärmte Nvidia von RT als unerreicht usw. . Das ist 2 Monate her (und die Leistung ist aus heutiger Sicht schon veraltet).
Nicht wirklich, im Gegenteil. Die 2080Ti ist immer noch State of the Art. DX12 Ultimate support, HW-RT, DLSS, DirectStorage, alles da.
Und die RT Leistung ist auch deutlich besser als "the worlds most powerful console", die Series X und damit gewappnet für die ganze Next Generation an Games.
 
Nicht wirklich, im Gegenteil. Die 2080Ti ist immer noch State of the Art. DX12 Ultimate support, HW-RT, DLSS, DirectStorage, alles da.
Und die RT Leistung ist auch deutlich besser als "the worlds most powerful console", die Series X und damit gewappnet für die ganze Next Generation an Games.
Also rt ist noch am Anfang und wird von Jahr zu besser weil die Karten schneller werden. Zum Vergleich amd kann nichts dagegensetzen. Weil hab mir von Igor lab das Video angeschaut und da sagt er das amd die Effekte zurückdrehen muss. Willkommen in der zukunft?
 
Klar, Du musst nur DLSS ausschalten.

Im Trailer ist kein DLSS aktiviert, sonst würde man das in 60 FPS uploaden. PCGH hat mal wieder was dazu gedichtet. Nur weil im Gameplay Video von DLSS die Rede war, heißt es nicht unbedingt, dass das Footage DLSS nutzt. In den meisten Spielen die DLSS 2.0 nutzen, wird das Bild qualitativ hochwertiger.

Das was im Video unscharf rüberkommt, nennt man Chromatic Aberration und wird man deaktivieren können.
 
ist das ein scherz natürlich tut es das
nope tut Sie nicht, kommt darauf an welche DLSS Einstellung du nimmst und in welcher Auflösung. In 4K DLSS Balance/Quality ist von unschärfe nichts zu sehen, wer was anderes behauptet lügt oder hat es selbst nie getestet. In den meisten Situationen macht dlss sogar einen besseren Job als TAA wo alles immer noch flackert und zittert und mit DLSS ist das Bild ruhig.
 
ist das ein scherz natürlich tut es das
Nutze DLSS in verschiedenen Games und es sorgt im Gegensatz zu FXAA und TXAA für ein schärferes Bild.
Eine generelle Aussage dass es Unschärfe erzeugt ist unzutreffend. In manchen Spielen wie Metro Exodus mag es so sein, hier wird aber auch eine ältere, schlecht implementierte Version verwendet.

Grüße und frohes Gamen
 
Gutes Marketing von Nvidia. Man "bucht" sich das hübscheste Spiel und sagt das ist Raytracing.
Teilweise sieht es toll aus. In Raytracing geht aber noch so viel mehr!

Als die Entwicklung von Cybeerport bekann, gab es Raytracing praktisch gesehen in Spielen nicht.
Irgendwann hat man also RT implementiert. Vermutlich aus Marketing Überlegungen. Vielleicht überlegte man, wo ist AMD schwach? Egal warum, es ist gut das Raytracing ein Thema ist, und Spiele hübscher werden.

Zu behaupten, dass nur Nvidia RT kann (so soll es zur Zeit wohl aussehen) stimmt nicht. RT wird ja Zeit Jahren für 3D Programme (Maya, Cinema 4D, etc. benutzt). Das kommt jetzt in die Spiele. Toll, davon habe ich schon vor 10 Jahren geträumt.

Vermutlich steige ich in 2 Jahren ein. RT ist noch nicht so gut wie die Werbung. Aber es ist ein Anfang.
Zur Erinnerung: Mit der TI 2080 schwärmte Nvidia von RT als unerreicht usw. . Das ist 2 Monate her (und die Leistung ist aus heutiger Sicht schon veraltet).

AMD wird vermutlich in 2 Jahren kontern. Zu viel Macht mit den Konsolen wird helfen.

Aber schön, dass jeder RT haben will. Ich auch und noch viel mehr.
Klar nutzt Nvidia das Spiel als Marketing und Nvidia selbst hat nie behauptet dass Sie die Erfinder von RT sind ( wo steht sowas ? ). Nvidia hat damit nur geprotzt diese Technik in Echtzeit in Spiele zu verwirklichen was vorher nicht möglich war. DLSS funktioniert natürlich auch ohne RT aber DLSS ist auch dafür gedacht um den Leistungshunger von RT entgegen zu wirken. DLSS und Alternativen die noch kommen sind in meinen Augen die Zukunft, daran führt kein weg vorbei. Die Konsolen nutzen Upscaling schon immer aber sowas wie DLSS hatten Sie bisher nie geboten. Die Konsolen machen was RT Leistung angeht einen verdammt guten Job, aber verglichen mit RTX Karten sind diese extrem schwach, dazu einfach mal Digi Foundry Video anschauen. In den Konsolen ( Watch Dogs Legion ) wird eine LOW Einstellung von RT genutzt dass es nicht mal auf dem PC gibt, also niedriger als die niedrigste Einstellung der PC Version, auch werden Partikel komplett in den Reflektionen ignoriert um Leistung zu sparen. AMD Karten sind verdammt gute Karten ( RDNA 2 ) aber sobald RT ins Spiel kommt scheinen deren RT Kerne gegenüber AMPERE RT Kerne veraltet zu sein. Ich meine, die kommenden Spiele mit RT werden immer mehr, da bringt Rohe Performance nichts mehr wenn die RT Kerne in die Knie gehen. Dazu kommt eben noch DLSS. Muss jeder für sich entscheiden was er will und auf was er verzichten will, aber wer RT als nur ein gimmick abstempelt, dann sollen diese bitte in allen Spiele die Schatten/Texturen/Beleuchtung/und und und in die niedrigste Einstellung setzen, ist doch alles nur gimmick
30FPS

LLLOOOLLLLL
Wir wissen erst mal nichts über die Performance, in Minecraft RTX hat man diese auch in der Beta behauptet, dann kam ein Update mit einem Boost von 45% in RT. Also abwarten. Auch denke ich das Cyberpunk noch jede menge Performance/BugFix Patches nach dem Release bekommen wird.
 
Zuletzt bearbeitet:
Warum vergleicht man DLSS mit TAA und FXAA? Der ganze Kram macht das Bild unscharf. Richtige Kantenglättung gibt es fast nicht mehr und wenn, ist es meistens schlecht implementiert (Flackern). Mittlerweile fressen MSAA und SMAA lächerlich viele Ressourcen, also bleibt nur das Upscaling über die Engine des Spiels, Super Sampling oder Image Sharpening. Auch auch hier kostet es Ressourcen mit durchwachsenen Ergebnissen oder man kämpft mit Ghosting.
Persönlich ist es mir derzeit egal ob sich jemand 4K oder 8K hochskalieren lässt und es möglich sein soll in hochskalierten Bildern mehr Details zu sehen als in einem nativen Bild, ich würde mir nur für 1080 und 1440p vernünftige Kantenglättung wünschen.
 
Das kann nur jemand schreiben, der DLSS 2.0 noch nicht live gesehen hat.


SMAA ist wie FXAA ein Post-AA und kostet fast keine Leistung.
Für Dich mit Handpuppen: Warum vergleicht man eine Technik, wie TAA und FXAA, die das Bild unscharf machen, mit DLSS? Warum soll das der Maßstab sein?
Zudem stammt DLSS nicht aus einem geheimen Labor der CIA. Man braucht eine Turing oder Ampere dafür. Dann kann man sich das tatsächlich anschauen. Und was ich gesehen habe haut mich nicht vom Hocker. Schon gar nicht auf größeren Bildschirmen. Aber es gibt auch Menschen die finden 30 FPS flüssig und sehen keinen Unterschied zwischen 60 und 144 Hz.

Selbstverständlich meinte ich, wie im Kontext ersichtlich, SSAA (Super Sampling). Das frisst, genau wie MSAA (Multisampling) ordentlich Ressourcen.
 
Warum vergleicht man DLSS mit TAA und FXAA? Der ganze Kram macht das Bild unscharf. Richtige Kantenglättung gibt es fast nicht mehr und wenn, ist es meistens schlecht implementiert (Flackern). Mittlerweile fressen MSAA und SMAA lächerlich viele Ressourcen, also bleibt nur das Upscaling über die Engine des Spiels, Super Sampling oder Image Sharpening. Auch auch hier kostet es Ressourcen mit durchwachsenen Ergebnissen oder man kämpft mit Ghosting.
Persönlich ist es mir derzeit egal ob sich jemand 4K oder 8K hochskalieren lässt und es möglich sein soll in hochskalierten Bildern mehr Details zu sehen als in einem nativen Bild, ich würde mir nur für 1080 und 1440p vernünftige Kantenglättung wünschen.
Jegliche Art von Kantenglättung hat das Spiel schon immer unscharf gemacht. Kann mich nicht daran erinnern, das es jemals anders war.
Das beste Ergebnis bring 4K oder Downsampling 4K mit TAA und diesem Nvidia Schärfefilter (ALT-F3) , der aber bei mir aus unerfindlichen Gründen nicht mehr oder kaum noch Funktioniert, das Bild war aber echt super, relativ scharf und flimmerfrei.
 
Zurück