G
Gast1668121802
Guest
Ist eigentlich schon eine Frechheit. Jetzt haben sich viele eine total überteuerte RTX der 3000 Reihe gekauft und gucken jetzt in die Röhre bezüglich RTO. Also ich würde mich ziemlich veräppelt fühlen.
Ja, fühlt sich so an ob Jensen die RTX3000 Besitzer trocken mit Anlauf F...erwöhnt.na da freuen sich sicher alle RTX3xxx-Besitzer zu hören, dass Sie jetzt nur noch 2. Klasse sind. Ich nehem an, Jensen muss mal wieder Geld für seinen neue Kluft sammeln ...
Wenn eine Reaktionszeit von 200ms um 10ms verzögert wird hast du immer noch 5% mehr Verzögerung als vorher.Bei 100+ FPS hast Du für eine Eingabe während eines "Zwischenframes" keine Zeit. 60 FPS aktualisiert das Bild bereits alle 16ms. Die menschliche Reaktionszeit ist durchschnittlich um die 200ms. Bei 100+ FPS hätte man irgendwas um die 10ms um das Zwischenframe mit der Eingabe zu treffen, diese 10ms merkst Du nicht.
Ich verstehe dein 200ms + 10ms Beispiel nicht.Wenn eine Reaktionszeit von 200ms um 10ms verzögert wird hast du immer noch 5% mehr Verzögerung als vorher.
Zudem zeigte ja die ganze 144Hz Diskussion dass ein großer Unterschied zwischen der Frequenz die man als flüssig wahrnimmt und der Frequenz die man noch als Verbesserung merkt liegt.
Zwischenbild Berechnung ist ja nichts neues, das machen zig Fernseher seit Jahren und viele Konsolenspieler haben die auch mit Absicht an. Aber es verbessert eben nicht die Reaktionszeit gegenüber jemandem der direkt mit der halben Framerate unterwegs ist.
60 DLSS3 FPS vs. 60 Standard FPS in einem Shooter oder Rennspiel zu testen finde ich für die Zukunft jedenfalls spannend.
Nun halbier einmal die Werte, was bei den neuen Raytracing Optionen vollkommen realistisch ist, und schon wird der Lag spannend.Wenn Du bei 60 FPS alle 16ms ein Frame hast, und dann bei 120 FPS mit DLSS 3.0 alle 8ms ein Frame, dann wirst Du keinen Unterschied feststellen beim Input Lag. Er wird halt nicht mehr oder weniger. Du hast nur ein flüssigeres Bild.
Wurde auch ein bisschen getrickst. Schaut man sich das Kleingedruckte an, so ist DLSS immer (sofern möglich) auf Performance gestellt und in der Vergangenheit sah der Performance Modus manchmal sehr schäbig aus. Mag bei der neuen Version anders sein, aber ich denke mal auf Quality oder Balance werden die FPS nicht so hoch ausfallen.DLSS3
Wenn aus 22 FPS 92 werden, wie gezeigt, dann wird es sehr komisch.
Da bin ich auch gespannt welche Lösung präsentiert wird und tippe auf fancy Lags
Dann fas YS IX niemals an, bisher in meinem Gamerleben die schlimmsten popups überhaupt. Selbst questtafel ploppen nach 15m. Konnte mich deswegen noch nicht zwingen das spiel anzugehen. auf ps sieht es nochmal doppelt und dreifach schlimmer ausDas ist der Grund warum ich CP2077 noch nicht gespielt habe. Das macht auch einfach die ganze Immension kaputt wenn alles im Sichtfeld am auf ploppen ist
Bei 100+ FPS hast Du für eine Eingabe während eines "Zwischenframes" keine Zeit. 60 FPS aktualisiert das Bild bereits alle 16ms. Die menschliche Reaktionszeit ist durchschnittlich um die 200ms. Bei 100+ FPS hätte man irgendwas um die 10ms um das Zwischenframe mit der Eingabe zu treffen, diese 10ms merkst Du nicht.
Siehe oben, oder siehe hier: https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/
DLSS 2.0 wird weiter Updates bekommen, wurde bereits bestätigt.
Schon mal mit Raytracing auf voller Stufe und alles andere auf Ultra ohne DLSS auf einer 3090 gespielt? Da sinds so um die 12-15 je nachdem wo man rumrennt. Cyberpunk ist ein GPU-fressendes Monster wenn man alle Regler voll aufdreht. Da ist DLSS2 selbst auf einer 3090er Pflicht wenn man zumindest 60-80 FPS haben will. Und selbst da muss man einige Reglern runterdrehen damit es so läuft. Wenn die es mit noch mehr Raytracing schaffen auf 104 zu kommen mit DLSS3... immer her damit.Die "DLSS im Vergleich" Collage ist entlarvend. DLSS 3 soll also von 22 Frames auf 104 Frames beschleunigen. Da dieses Feature exklusiv für 40er-Reihe vorgesehen ist, bedeutet es im Umkehrschluss, dass eine 4080/4090 nur sowenig Frames in Cyberpunk schaffen?
Nein, das Feature war für schwachbrüstige Karten wie der 3050 oder der 3060. Aber um ihre überteuerten Karten loszuwerden, wurde dieses Feature für ältere Karten gestrichen. Nvidia ist echt verzweifelt.
Ich spreche nur vom Input Lag, daher ignoriere ich das "Was ICH merke" einfach mal, da es Dir um etwas ganz anderes geht.Ich meine die wahrgenommene Latenz im Bildablauf während des spielens, nicht eine Eingabeverzögerung.
So wie es bspw. bei 60 Hz zu 144 Hz Monitoren der Fall ist, bei ansonsten gleichen Bedingungen und nach deiner Logik, sollte da ja kein spürbarer Unterschied wahrnehmbar sein, was ja nicht der Fall ist, es gibt sowohl fühl- als auch messbare Unterschiede.
Und ich persönlich merke sehr deutlich den Unterschied zwischen 60 Hz, 100 Hz und 144 Hz. Ich merke auch wenn Tripple Buffering aktiv ist bei 144 FPS auf einem 144 Hz Panel und der Unterschied "sollte" auch nicht spürbar sein.
Was ICH merke, überlass mal mir.
Aber wie gesagt, ich warte da mal auf unabhägige Tests zu dem Thema, völlig unabhängig davon was Nvidia da selbst in ihren Blog schreibt oder angeheuerte News Outlets.
Das ist ein neues RT Setting in CP2077, da werden die Ampere Karten selbst mit DLSS 2.0 keine 75 FPS liefern.Also bringt eine aktuelle 40xxer GPU für ~ 1.600 €+ mit "RT ON" nur ~22FPS?
Man muss also wieder die DLSS-Trickserei aktivieren um die GPUs zu entlasten?
Das sieht für mich nicht nach Fortschritt aus, für den Preis müssen die Karten nativ um die 100 FPS liefern.
Denn sonst reicht auch eine 30er mit DLSS 2 für den halben Preis bei 75 FPS+ . Sorry Leute aber so nicht