News Cyberpunk 2077: Nvidia zeigt aufschlussreiche Benchmarks zu Raytracing-Overdrive

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Nvidia zeigt aufschlussreiche Benchmarks zu Raytracing-Overdrive

Im Zuge der Ankündigung des Overdrive-Raytracing-Modus für Cyberpunk 2077 hat Nvidia auch eigene Benchmarks veröffentlicht. Diese zeigen eines: In Ultra HD gibt es selbst auf den schnellsten Grafikkarten Einschränkungen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Cyberpunk 2077: Nvidia zeigt aufschlussreiche Benchmarks zu Raytracing-Overdrive
 
Keine Ahnung, aber :

"Die Technik sehe wie eine schlaue Lösung für ein Problem aus, das die Industrie seit Jahren zu lösen versucht."

kommt mir ehr so wie die Lösung wie man mit Leistung X bei den GPUs Preis 2X oder so berechnen kann.

Abgesehen davon das ich die von anderen erwähnten TVs die ähnlich Technik hatten bisher nicht kannte, sieht es damit dann aber irgendwie nicht nach einer Lösung aus nach der man ewig gesucht hatte.

Und ja Nvidia hatten als erste die Idee und die Umsetzung bei einer Grafikkarte, das leugne ich nicht.
 
Ich habe es gestern mit meiner 4090 getestet. in WQHD schafft sie stabile 80 FPS mit DLSS Quali. Frame Generation war aus. CPU habe ich einen 5900X mit 32 GB 3600 CL14 RAM.
Leider hat das Game seit dem einige Bugs. Im Fahrstuhl konnte ich kein Stockwerk auswählen oder eine Missionsziel bleibt stehen obwohl man schon weiter ist. Bei 1 von 4 Starts gab es Soundprobleme. Heute gab es noch ein kleines Update. Schaffe es heute aber nicht rein zuschauen.
 
Abgesehen davon das ich die von anderen erwähnten TVs die ähnlich Technik hatten bisher nicht kannte, sieht es damit dann aber irgendwie nicht nach einer Lösung aus nach der man ewig gesucht hatte.
Dazu muss man sich die Frage stellen, wie FG funktioniert und wie dagegen die technischen Verfahren bei den Fernsehern.
Dann müsste man Qualität und Effektivität gegnüberstellen und Unterschiede auch im Anforderungsprofil herausarbeiten.
Ohne das zu tun, ist sowohl die Fürsprache als auch die Gegenrede bzw. Relativierung der Technik FG reines Stochern im Dunkeln.
 
Eine Spitzen Demo von NV selbst, dass selbst in der 3. RTX Generation RT für den Poppolores ist.
Eine 2000 € + 3090 (alte Gen) mit 24 GB RAM grad so 30 FPS in FullHD sagt doch schon alles !
Die neue Gen ist da nicht viel besser (4090 mit 22 FPS in 4K).
Aber Hauptsache 60´er Chips für 700 € + bringen und mit tollen Tricks (DLSS und FG) spielbare FPS zaubern.
 
Keine Ahnung, aber :

"Die Technik sehe wie eine schlaue Lösung für ein Problem aus, das die Industrie seit Jahren zu lösen versucht."

kommt mir ehr so wie die Lösung wie man mit Leistung X bei den GPUs Preis 2X oder so berechnen kann.

Abgesehen davon das ich die von anderen erwähnten TVs die ähnlich Technik hatten bisher nicht kannte, sieht es damit dann aber irgendwie nicht nach einer Lösung aus nach der man ewig gesucht hatte.

Und ja Nvidia hatten als erste die Idee und die Umsetzung bei einer Grafikkarte, das leugne ich nicht.

Hier gibt es aber einen signifikanten Unterschied zwischen TV und Computer:
Der Fernseher kann sich das nächste Bild bereits anscheuen, wenn das aktuelle angezeigt wird, und hat so genug Zeit das Zwischenbild zu berechnen. Rein theoretisch könnte er sich bereits die gesamte nächste Sekunde anscheuen, um die Informationen in die Berechnung einfließen lassen. Davon bekommt man als Zuschauer nichts mit. Die Anzeige der Sendung wird einfach ein paar Millisekunden später gestartet.

Beim PC geht das aber nicht, da man die Bilder möglichst ohne Verzögerung anzeigen muss, um als Spieler zu reagieren. Hier hat man also hauptsächlich die vorherigen Bilder, aus denen man das Zwischenbild berechnen muss.

Ich weiß natürlich nicht genau, wie es bei TV oder PC genau gemacht wird, aber allein durch die oben beschriebenen Unterschiede, muss man, bzw. kann man, die Zwischenbildberechnung anders machen/optimieren.
 
Dazu muss man sich die Frage stellen, wie FG funktioniert und wie dagegen die technischen Verfahren bei den Fernsehern.
Dann müsste man Qualität und Effektivität gegnüberstellen und Unterschiede auch im Anforderungsprofil herausarbeiten.
Ohne das zu tun, ist sowohl die Fürsprache als auch die Gegenrede bzw. Relativierung der Technik FG reines Stochern im Dunkeln.
Sry, scheinbar denkst du ich will FG schlecht reden, das war nicht meine Absicht.

Es geht sich mir darum das ich nicht glaube das es eine Lösung auf ein seit Jahren gesuchtes Problem darstellt, also etwas was mir ähnlich klingt wie die Lösung darauf wie man bei der Kernfusion einen Positiven Energieertrag erhält.

Also nur den Generellen Kontext betreffend, wie das FG quasi auch nicht der Heiland ist.
 
Eine Spitzen Demo von NV selbst, dass selbst in der 3. RTX Generation RT für den Poppolores ist.
Eine 2000 € + 3090 (alte Gen) mit 24 GB RAM grad so 30 FPS in FullHD sagt doch schon alles !
Die neue Gen ist da nicht viel besser (4090 mit 22 FPS in 4K).
Aber Hauptsache 60´er Chips für 700 € + bringen und mit tollen Tricks (DLSS und FG) spielbare FPS zaubern.
Ist wirklich eine seltsame Entwicklung und das alles nur für Raytracing.
Mal schauen, was sich Nvidia tolles überlegt für die 5000er Karten.
 
Irgendwo ist das doch auch Betrug am Kunden wenn man Software auf eine Bestimmte HW zuschneidet bzw. dort die APi Nutzt um dann alle Benchmarks immer den gleichen Quark zu erzählen. Im Endeffekt ist es nur ein Grafikfeature das hinzugefügt wurde. Seit Q3 kam das zum ersten mal auf. Als würde es am Spiel was ändern das sich Objekt xyz spiegelt.

Besonders Sinnfrei ist das ganze bei F12023. Wo man mit 300km/h an der Spiegelung vorbei fährt. Da tut mir echt mein Brain weh!

Jetzt sind wir an einer Situation wo nur ein Top Modell von einem Hersteller alle überkront. Wenn man sich die Umstände anschaut irgendwie sehr unschön alles. Der dumme sind wir die sich dann mit Mondpreisen rummschlagen müssen.

Bin ich da allein der das so sieht ?
 
Eine Spitzen Demo von NV selbst, dass selbst in der 3. RTX Generation RT für den Poppolores ist.
Nur hat Nvidia die nächste Stufe "Pathtracing" gezündet.
Mit DLSS ist das locker spielbar und auch hübscher als die veraltete Native Auflösung.
Eine 2000 € + 3090 (alte Gen) mit 24 GB RAM grad so 30 FPS in FullHD sagt doch schon alles !
Ja, das zeigt wie aufwändig Pathtracing ist und es dennoch mit der aktuellen Generation schon in komplexe und aufwändige Spiele spielbar integrierbar ist.
Die neue Gen ist da nicht viel besser (4090 mit 22 FPS in 4K).
Die neue Generation ist ohne Frame Generation etwa 80% schneller.
Aber es ist ja nichts neues, dass im Netz viele Falschdarstellungen darüber verbreitet werden, hauptsächlich aus Neid, weil man konkurrenzlose Grafikpracht nicht mit aktuellen AMD Karten flüssig darstellen kann.

Aber auch da wird AMD die nächsten Generationen Fortschritte machen.
Die ganze Industrie geht Richtung AI, intelligentes Upscaling, RT, Pathtracing, da gibt es kein zurück mehr.
Abgesehen davon das ich die von anderen erwähnten TVs die ähnlich Technik hatten bisher nicht kannte,
Die Techniken sind eigentlich 0 vergleichbar. Es ist problemlos möglich ein Video, das mit 30 FPS aufgenommen wurde flüssiger mit 60 FPS darzustellen.
Bei FG ist es komplex, da die Frames aufwändig berechnet werden müssen.
 
Zuletzt bearbeitet:
Auch bei Tag gibt's natürlich Unterschiede... aber gestern war ich erst mal nur in den dunklen Ecken von Night City unterwegs. Vergleichende Screenshots zu machen trainiert zu dem den Blick, und zu testen wo die optischen Vorzüge liegen, bereitet mir zudem Vergnügen.

Mit Path Tracing und dem vermehrten "Bouncen" der Lichtstrahlen - gibt's jetzt schöne Aufhellungen - die's vorher nicht gab - und ein technologischer Fortschritt der alte Fehler in der Darstellung und Beleuchtung ausmerzt, mag ich auch immer. Ich hab befürchtet, dass ich mit der 3090 beim Ausprobieren gar nicht mitmachen könnte, gefällt mir dass dafür die Leistung mit etwas kompromissbereitschaft reicht... Stromsparen geht mit Pathtracing jetzt jedoch nicht mehr.

Im anderen Thread hab ich noch weitere Vergleichs-Shots untergebracht - in einen seperaten Kommentar...
 
Zuletzt bearbeitet:
Hab mir jetzt noch das DF Video zu Pathtracing angeschaut und ich muss " leider" zugeben, das "normale" RT hat absolut keine Chance gegen Pathtracing. Eigentlich zeigt PT, dass RT nicht ganz so geil ist, wie immer behauptet wird.
Mal schauen, ob ich mir das ganze mal live anschaue mit der 3080, aber alles unter 60 fps fühlt sich nicht gut an in CP.


Bin ich da allein der das so sieht ?

definitiv nicht. Wie gesagt, man muss das Ganze aus versch. Blickwinkeln sehen. Den HC Enthusiasten juckt es wahrscheinlich nicht, da sowieso das beste gekauft wird ( egal welcher Preis ). Der Rest macht sich zurecht Gedanken, weil ein Hobby in Preisregionen rutscht, wo viele dankend abwinken werden.
Was ich nicht verstehen werde und auch nicht möchte, sind die ganzen Leute die Nvidias Preispolitik verteidigen.
Die Ignore - Liste ist seitdem auch gewachsen, leider. Ich brauche keine Leute, die Gebetsmühlenartig in jedem Thread den selben schwachsinn aufzählen.
 
Zurück