Cyberpunk 2077: Raytracing-Overdrive exklusiv für RTX 4090 und Co.

Ist eigentlich schon eine Frechheit. Jetzt haben sich viele eine total überteuerte RTX der 3000 Reihe gekauft und gucken jetzt in die Röhre bezüglich RTO. Also ich würde mich ziemlich veräppelt fühlen.
 
DLSS3
Wenn aus 22 FPS 92 werden, wie gezeigt, dann wird es sehr komisch.
Da bin ich auch gespannt welche Lösung präsentiert wird und tippe auf fancy Lags
 
na da freuen sich sicher alle RTX3xxx-Besitzer zu hören, dass Sie jetzt nur noch 2. Klasse sind. Ich nehem an, Jensen muss mal wieder Geld für seinen neue Kluft sammeln ...:devil:
 
na da freuen sich sicher alle RTX3xxx-Besitzer zu hören, dass Sie jetzt nur noch 2. Klasse sind. Ich nehem an, Jensen muss mal wieder Geld für seinen neue Kluft sammeln ...:devil:
Ja, fühlt sich so an ob Jensen die RTX3000 Besitzer trocken mit Anlauf F...erwöhnt.

Und ob DLSS3 nun tatsächlich technisch nicht mit RTX3000 funktioniert oder nur nicht darf....naja.

Das ist so ein Punkt wo man dankbar für AMDs offenen Standard ist.
 
Bei 100+ FPS hast Du für eine Eingabe während eines "Zwischenframes" keine Zeit. 60 FPS aktualisiert das Bild bereits alle 16ms. Die menschliche Reaktionszeit ist durchschnittlich um die 200ms. Bei 100+ FPS hätte man irgendwas um die 10ms um das Zwischenframe mit der Eingabe zu treffen, diese 10ms merkst Du nicht.
Wenn eine Reaktionszeit von 200ms um 10ms verzögert wird hast du immer noch 5% mehr Verzögerung als vorher.
Zudem zeigte ja die ganze 144Hz Diskussion dass ein großer Unterschied zwischen der Frequenz die man als flüssig wahrnimmt und der Frequenz die man noch als Verbesserung merkt liegt.
Zwischenbild Berechnung ist ja nichts neues, das machen zig Fernseher seit Jahren und viele Konsolenspieler haben die auch mit Absicht an. Aber es verbessert eben nicht die Reaktionszeit gegenüber jemandem der direkt mit der halben Framerate unterwegs ist.
60 DLSS3 FPS vs. 60 Standard FPS in einem Shooter oder Rennspiel zu testen finde ich für die Zukunft jedenfalls spannend.
 
Exklusiv heißt man müsste die .dll in andere Spiele einfügen damit das bei denen dann auch funktioniert? Oder ?..
 
Wenn eine Reaktionszeit von 200ms um 10ms verzögert wird hast du immer noch 5% mehr Verzögerung als vorher.
Zudem zeigte ja die ganze 144Hz Diskussion dass ein großer Unterschied zwischen der Frequenz die man als flüssig wahrnimmt und der Frequenz die man noch als Verbesserung merkt liegt.
Zwischenbild Berechnung ist ja nichts neues, das machen zig Fernseher seit Jahren und viele Konsolenspieler haben die auch mit Absicht an. Aber es verbessert eben nicht die Reaktionszeit gegenüber jemandem der direkt mit der halben Framerate unterwegs ist.
60 DLSS3 FPS vs. 60 Standard FPS in einem Shooter oder Rennspiel zu testen finde ich für die Zukunft jedenfalls spannend.
Ich verstehe dein 200ms + 10ms Beispiel nicht.

DLSS 3.0 wird Frames hinzufügen, der Input Lag wird aber gleich bleiben wie als würdest Du nativ spielen. DLSS 3.0 fügt Frames hinzu die nichts mit der Game Engine zu tun haben, deswegen können diese Frames den Input Lag nicht verringern.

Wenn Du bei 60 FPS alle 16ms ein Frame hast, und dann bei 120 FPS mit DLSS 3.0 alle 8ms ein Frame, dann wirst Du keinen Unterschied feststellen beim Input Lag. Er wird halt nicht mehr oder weniger. Du hast nur ein flüssigeres Bild.
 
Proprietäre Locks im eigenen Portfolio, stark von Nvidia! K.A. ob dafür tatsächlich andere Tensor Kerne benötigt werden, oder nicht, aber im Falle nicht, schiesst das nach den aufegerufenen Preisen und der 4080 12 GB Nebelkerze den Vogel komplett ab…
 
Wenn Du bei 60 FPS alle 16ms ein Frame hast, und dann bei 120 FPS mit DLSS 3.0 alle 8ms ein Frame, dann wirst Du keinen Unterschied feststellen beim Input Lag. Er wird halt nicht mehr oder weniger. Du hast nur ein flüssigeres Bild.
Nun halbier einmal die Werte, was bei den neuen Raytracing Optionen vollkommen realistisch ist, und schon wird der Lag spannend.
 
DLSS3
Wenn aus 22 FPS 92 werden, wie gezeigt, dann wird es sehr komisch.
Da bin ich auch gespannt welche Lösung präsentiert wird und tippe auf fancy Lags
Wurde auch ein bisschen getrickst. Schaut man sich das Kleingedruckte an, so ist DLSS immer (sofern möglich) auf Performance gestellt und in der Vergangenheit sah der Performance Modus manchmal sehr schäbig aus. Mag bei der neuen Version anders sein, aber ich denke mal auf Quality oder Balance werden die FPS nicht so hoch ausfallen.
 
Das ist der Grund warum ich CP2077 noch nicht gespielt habe. Das macht auch einfach die ganze Immension kaputt wenn alles im Sichtfeld am auf ploppen ist
Dann fas YS IX niemals an, bisher in meinem Gamerleben die schlimmsten popups überhaupt. Selbst questtafel ploppen nach 15m. Konnte mich deswegen noch nicht zwingen das spiel anzugehen. auf ps sieht es nochmal doppelt und dreifach schlimmer aus
 
Bei 100+ FPS hast Du für eine Eingabe während eines "Zwischenframes" keine Zeit. 60 FPS aktualisiert das Bild bereits alle 16ms. Die menschliche Reaktionszeit ist durchschnittlich um die 200ms. Bei 100+ FPS hätte man irgendwas um die 10ms um das Zwischenframe mit der Eingabe zu treffen, diese 10ms merkst Du nicht.


Siehe oben, oder siehe hier: https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/


DLSS 2.0 wird weiter Updates bekommen, wurde bereits bestätigt.


Ich meine die wahrgenommene Latenz im Bildablauf während des spielens, nicht eine Eingabeverzögerung.
So wie es bspw. bei 60 Hz zu 144 Hz Monitoren der Fall ist, bei ansonsten gleichen Bedingungen und nach deiner Logik, sollte da ja kein spürbarer Unterschied wahrnehmbar sein, was ja nicht der Fall ist, es gibt sowohl fühl- als auch messbare Unterschiede.
Und ich persönlich merke sehr deutlich den Unterschied zwischen 60 Hz, 100 Hz und 144 Hz. Ich merke auch wenn Tripple Buffering aktiv ist bei 144 FPS auf einem 144 Hz Panel und der Unterschied "sollte" auch nicht spürbar sein.
Was ICH merke, überlass mal mir. :P

Aber wie gesagt, ich warte da mal auf unabhägige Tests zu dem Thema, völlig unabhängig davon was Nvidia da selbst in ihren Blog schreibt oder angeheuerte News Outlets.
 
Die "DLSS im Vergleich" Collage ist entlarvend. DLSS 3 soll also von 22 Frames auf 104 Frames beschleunigen. Da dieses Feature exklusiv für 40er-Reihe vorgesehen ist, bedeutet es im Umkehrschluss, dass eine 4080/4090 nur sowenig Frames in Cyberpunk schaffen?
Nein, das Feature war für schwachbrüstige Karten wie der 3050 oder der 3060. Aber um ihre überteuerten Karten loszuwerden, wurde dieses Feature für ältere Karten gestrichen. Nvidia ist echt verzweifelt.
 
Ich würd mir ja wünschen das sie dann auch gleich angehen das der eigene Charakter nicht reflektiert wird. DAS zerstört die Immersion und nicht das andere Kleinzeugs wo die Leute immer drauf steilgehen.


Die "DLSS im Vergleich" Collage ist entlarvend. DLSS 3 soll also von 22 Frames auf 104 Frames beschleunigen. Da dieses Feature exklusiv für 40er-Reihe vorgesehen ist, bedeutet es im Umkehrschluss, dass eine 4080/4090 nur sowenig Frames in Cyberpunk schaffen?
Nein, das Feature war für schwachbrüstige Karten wie der 3050 oder der 3060. Aber um ihre überteuerten Karten loszuwerden, wurde dieses Feature für ältere Karten gestrichen. Nvidia ist echt verzweifelt.
Schon mal mit Raytracing auf voller Stufe und alles andere auf Ultra ohne DLSS auf einer 3090 gespielt? Da sinds so um die 12-15 je nachdem wo man rumrennt. Cyberpunk ist ein GPU-fressendes Monster wenn man alle Regler voll aufdreht. Da ist DLSS2 selbst auf einer 3090er Pflicht wenn man zumindest 60-80 FPS haben will. Und selbst da muss man einige Reglern runterdrehen damit es so läuft. Wenn die es mit noch mehr Raytracing schaffen auf 104 zu kommen mit DLSS3... immer her damit.
Obwohl natürlich die Frage offen bleibt auf welcher DLSS-Stufe die 104 geschafft werden. Quality wirds sehr wahrscheinlich nicht sein. :D
 
Zuletzt bearbeitet:
Ich meine die wahrgenommene Latenz im Bildablauf während des spielens, nicht eine Eingabeverzögerung.
So wie es bspw. bei 60 Hz zu 144 Hz Monitoren der Fall ist, bei ansonsten gleichen Bedingungen und nach deiner Logik, sollte da ja kein spürbarer Unterschied wahrnehmbar sein, was ja nicht der Fall ist, es gibt sowohl fühl- als auch messbare Unterschiede.
Und ich persönlich merke sehr deutlich den Unterschied zwischen 60 Hz, 100 Hz und 144 Hz. Ich merke auch wenn Tripple Buffering aktiv ist bei 144 FPS auf einem 144 Hz Panel und der Unterschied "sollte" auch nicht spürbar sein.
Was ICH merke, überlass mal mir. :P

Aber wie gesagt, ich warte da mal auf unabhägige Tests zu dem Thema, völlig unabhängig davon was Nvidia da selbst in ihren Blog schreibt oder angeheuerte News Outlets.
Ich spreche nur vom Input Lag, daher ignoriere ich das "Was ICH merke" einfach mal, da es Dir um etwas ganz anderes geht.
 
Also bringt eine aktuelle 40xxer GPU für ~ 1.600 €+ mit "RT ON" nur ~22FPS? :fresse:

Man muss also wieder die DLSS-Trickserei aktivieren um die GPUs zu entlasten? :rollen:
Das sieht für mich nicht nach Fortschritt aus, für den Preis müssen die Karten nativ um die 100 FPS liefern. :nicken:

Denn sonst reicht auch eine 30er mit DLSS 2 für den halben Preis bei 75 FPS+ . Sorry Leute aber so nicht :stupid:
 
Also bringt eine aktuelle 40xxer GPU für ~ 1.600 €+ mit "RT ON" nur ~22FPS? :fresse:

Man muss also wieder die DLSS-Trickserei aktivieren um die GPUs zu entlasten? :rollen:
Das sieht für mich nicht nach Fortschritt aus, für den Preis müssen die Karten nativ um die 100 FPS liefern. :nicken:

Denn sonst reicht auch eine 30er mit DLSS 2 für den halben Preis bei 75 FPS+ . Sorry Leute aber so nicht :stupid:
Das ist ein neues RT Setting in CP2077, da werden die Ampere Karten selbst mit DLSS 2.0 keine 75 FPS liefern.
 
OK... Cool und so...
Also ich zocke lieber weiterhin täglich meine paar Runden Tekken 7 online mit 120 FPS Mod auf meinem 65 Zoll LG OLED C1 mit meiner RX 6900 XT LC, die dabei gerade mal ca 120 Watt verbraucht :) macht mir unheimlich viel Spaß im Rang aufzusteigen, schon seit Jahren. Cyberpunk 2077 ist zwar seit fast 2 Jahren installiert aber fasse ich lieber mal immer noch nicht an.
 
Nix gegen Games als Technologie-Träger, aber imho ergibt es mehr Sinn, ein im Prinzip ordentliches Spiel mit toller Grafik zu einem ziemlich bugfreien guten Spiel zu entwickeln, anstatt Ressourcen in Effekte zu stecken, die 99% der Gamer erst in ein paar Jahren zu sehen bekommen. In der derzeitigen Lage sowieso. Das Spiel, welches mich dazu bringt, mehr wie 300 Euro für ne GraKa zu zahlen muß erst noch erfunden werden. Ok, sollte ein Remake von C&C Generals/ZeroHour ne 4090TI als Minimum fordern, käme ich wohl ans Nachdenken. Vorher aber keinesfalls!
 
Zurück