News Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung

Bereits am 11. April erscheint die Technologie-Vorschau zum Raytracing-Overdrive-Modus für Cyberpunk 2077 und wird dann erstmals auch Pathtracing für die fortschrittlichste Echtzeit-Beleuchtung in Spielen in dem dystopischen Action-Rollenspiel erlebbar machen. Die Grafikpracht hat selbstverständlich ihren Preis: Bis zu 40 Prozent mehr Leistung werden vorausgesetzt und Nvidia Geforce RTX 4000 und DLSS 3 sind Pflicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung
 
Hä? Ohne FG runter bis auf 16 FPS und mit FG auf einmal über 100? Eigentlich verdoppelt FG doch die Bildrate?! Wie soll dieser große Unterschied zustande kommen?
 
Lächerlich, wir schrauben künstlich die Hardware Anforderungen in die höhe, so das es nur mit dem Topmodell flüssig läuft.

Billig umgesetzte Psychologie, eine weitere Reglerstufe rechts. Der Unterschied ist optisch nur noch auf Standbildern zu erkennen...aber wer schiebt den Regler schon freiwillig auf die "nur" zweithöchste Stufe.
 
Zuletzt bearbeitet:
Ich aktiviere RT für geile Grafik um dann mit DLSS die Grafik wieder runter zu schrauben? :huh:

Finde den Fehler...

Wie ich immer sage, vlt. in 5-10 Jahren, so macht es meiner Meinung nach keinen Sinn.
Du verwechselst Grafikqualität mit Bildqualität. Wobei DLSS in Cyberpunk 2077 eigentlich sehr gut umgesetzt ist, was die Qualität angeht.
 
Meine ursprüngliche Denke war ja mal dahingehend, daß vollumfängliches RT erst 2030 Relevanz haben wird, wenn es im Massenmarkt ankommt, für jeden nutzbar im Preisbereich bis 350€. Wenn man sich die Entwicklung allerdings so anguckt, muß man wohl eher sagen, das wird nicht reichen oder vielleicht auch auf Sicht nicht mehr erreicht werden. Dann eben nicht :-P.
 
Aha, wenn die das jetzt überall nachreichen wird die 4080 wohl die kürzeste Haltbarkeit aller GPU´s bei mir haben sobald neue Hardware auf den Markt kommt. :wall:
 
Lächerlich, wir schrauben künstlich die Hardware Anforderungen in die höhe, so das es nur mit dem Topmodell flüssig läuft.
Ich habe mir mehrere Interviews dazu angeschaut und überall erwähnen die mehrmals und ausdrücklich dass es eine "Techdemo" sei, eine Technik der Zukunft die eben sehr sehr viel Leistung benötigt.

Und trotzdem wird es wohl negative Bewertungen regnen weil Leute es nich mit ihrer uraten GPU zocken können:fresse:
 
Aha, wenn die das jetzt überall nachreichen wird die 4080 wohl die kürzeste Haltbarkeit aller GPU´s bei mir haben sobald neue Hardware auf den Markt kommt. :wall:
Die 3080 mit 10G dürfte das noch schlagen.
Generell scheint die 80er Serie jetzt immer irgendeinen Haken zu haben. Besser gleich 90 oder eine Generation abwarten und freiwillig auf WQHD runter :wall:
 
Die 3080 mit 10G dürfte das noch schlagen.
Generell scheint die 80er Serie jetzt immer irgendeinen Haken zu haben. Besser gleich 90 oder eine Generation abwarten und freiwillig auf WQHD runter :wall:
Die 90 hab ich einzig wegen dem Steckerdesaster nicht gekauft und ich Spiel nichtmal in 4K. Ich will halt immer die möglichst höchste Qualität genießen wenn ich denn mal Spiele. Und wenn das heißt die 4080 muss schnellstmöglich raus wenn die RTX 5000er oder RX 8000er kommen, dann ist das halt so.
 
Hä? Ohne FG runter bis auf 16 FPS und mit FG auf einmal über 100? Eigentlich verdoppelt FG doch die Bildrate?! Wie soll dieser große Unterschied zustande kommen?
Sie haben nicht offengelegt, auf welcher Stufe DLSS läuft. Ich tippe auf Ultra Performance oder Performance. Damit könnte der Unterschied schon hinhauen.
 
Die 90 hab ich einzig wegen dem Steckerdesaster nicht gekauft und ich Spiel nichtmal in 4K. Ich will halt immer die möglichst höchste Qualität genießen wenn ich denn mal Spiele. Und wenn das heißt die 4080 muss schnellstmöglich raus wenn die RTX 5000er oder RX 8000er kommen, dann ist das halt so.

Solche großen Sprünge gibt es bei der Grafik nicht mehr, außer die Programmierer sind Faul.

Hab in einigen Spielen mit meiner 1070 120 FPS erreicht mit der 6700xt nun 230FPS+. Kommt auf das Spiel an, gespielt in 2K.

Mit der 3080 und 6800 hatte ich noch mehr FPS. Grafikdetails immer am Anschalg.

Bin dann runter auf die 6700XT, weil es einfach keinen Sinn ergab, mein Monitor macht 75hz mit. Die Spiele werden mit mehr FPS weder fluffiger noch Hübscher. Klar fürs Ego ist das schon nett, wenn man bei den Benchmarks weit vorne liegt.

Raytracing ist echt interessant, aber nicht in dieser Zwischenlösung. Entweder NUR oder Gar nicht.

Das einzige Game das mich mit RT überraschen konnte, ist Ratched & Clank WOrld Apart. Läuft mit RT ca 40 FPS und sieht echt hübsch aus.
 
Zuletzt bearbeitet:
jo, sieht nett aus, aber wird wohl für immer ne Demo bleiben oder nur für " Premium" User nutzbar. Mittlerweile bin ich mir nicht mehr sicher, ob RT wirklich standard wird. Nvida pusht zwar, aber die letzten Games mit RT waren ja allesamt krücken. Entweder performance technisch oder RT war kaum ein Mehrwert.
 
jo, sieht nett aus, aber wird wohl für immer ne Demo bleiben oder nur für " Premium" User nutzbar. Mittlerweile bin ich mir nicht mehr sicher, ob RT wirklich standard wird.
Schau dir mal das Video bei Moores Law is Dead an

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Da sieht es so aus als ob das mit Raster immer komplizierter wird und Raytracing das ganze deutlich vereinfacht, also ist es nur eine frage der zeit bis alle auf Raytracing umstellen.
 
Hä? Ohne FG runter bis auf 16 FPS und mit FG auf einmal über 100? Eigentlich verdoppelt FG doch die Bildrate?! Wie soll dieser große Unterschied zustande kommen?
DLSS reduziert gleichzeitig noch die Renderauflösung. Anhand dieser niedrigen Auflösung werden dann die höherauflösenden Einzelbilder berechnet. Wahrscheinlich bezogen sich die Angaben auf den Performancemodus.
 
Wenn ich das richtig verstanden habe macht DLSS Frame Generation Kopien der aktuell gezeigten Bilder und fügt sie so folgend wieder ein. OK man verdoppelt die Framerate mit schon vorhandenen Bildern. So lang das Auge nicht mitkommt durchaus praktikabel. Nativ gefiel mir im Vergleich trotzdem besser.

Zu Path Tracing. Sehr nett aber DLSS-Performance ist sichtbar und nimmt den Bildern wieder Qualität. Ich denke mal in nur 4-6 Jahren kann man das dann nativ genießen bei Cyberpunk. Also nett aber nicht praktikabel.
 
Hab mir mal die Vergleichsbilder angeschaut in diversen reddit foren. Natürlich muss man abwarten wie es dann live ist, aber so generell sieht es zwar besser aus, aber mMn. kein so großer Sprung wie von Non RT zum RT welches Cyberpunk aktuell liefert. Denke sofern ich nicht mit einer 5090 spiele, welche noch nicht existiert, nehme ich die hohen FPS mit. Der Unterschied ist bei manchen Vergleichsbildern höchstens "nett".
 
Zurück