Geforce RTX 4090: Nvidia zielt auf mehr als 300 Fps in 1440p ab

Gibt es überhaupt (vernünftige) Displays die solche hohen Bildraten überhaupt sauber darstellen können?
Dass der Inputlag mit steigenden Bildraten sinkt, ist doch nur eine dumme/primitive Notlösung für Spiele bei denen die Gamelogik/Physik an die Bildraten gekoppelt ist.
Falls Rendering und Gamelogik nicht gekoppelt sind, wie es heutzutage eigentlich sein solte, entscheide die CPU und die Abtastrate von Tastatur/Maus/Controller über den Inputlag. Somit benötigt man eigentlich eine schnellere CPU um den Inputlag zu senken.
 
Input Lag ist nicht von der Hand zu weisen. Das ist wie bei der Tour de France, da geht auch keiner ins Rennen mit einem Holland-Rad.

Irgendwie ist es genau wie bei der Tour de France. 150 Teilnehmer von denen 5 um den Sieg fahren, alle auf hochgezüchteten Einzelanfertigungen und eine Million Zuschauer vor dem TV die sich denken "mit dem Fahrrad würde ich auch gewinnen, genau daran liegt es, an dem Fahrrad, nur das macht den Unterschied, ich kauf mir jetzt so ein Fahrrad, aber erst hol ich mir noch ein Bier".

So sieht es doch aus, wenn wir ehrlich sind. Denkt an mich heute Abend bei Deutschland - Ungarn, ich hätte die alle reingemacht. Ich vertrag nur das Zugfahren nicht, sonst wär ich dabei.
 
was die alles jetzt aus dem Sack holen um die Teuren Dinger los zu werden....
300 FPS :ugly: flüssigere Spielerfahrung... :lol::lol:
Wenn ich 60 FPS konstant habe ist das für mich absolut flüssig. Da ruckelt nix. Ich stelle das sogar absichtlich auf 60 FPS, damit das System ruhig und leise läuft. 300 FPS... und die ziehen dann 600 Watt aus der Steckdose...
Ey, jetzt lasst mal die Kirche im Dorf.
450W zieht die 4090 FE aus der Dose. Und wenn für Dich kein Unterschied zwischen 60 und 300 FPS sichtbar ist, dann würde ich mal zum Augen-Arzt gehen. Das alles ändert nichts daran dass hohe FPS Zahlen für niedrigen Input Lag sorgen, und das eben im kompetitiven Umfeld wichtig ist.

Es fährt ja auch kein F1 Wagen mit einem normalen PKW-Motor über die Kurse.

Gibt es überhaupt (vernünftige) Displays die solche hohen Bildraten überhaupt sauber darstellen können?
Dass der Inputlag mit steigenden Bildraten sinkt, ist doch nur eine dumme/primitive Notlösung für Spiele bei denen die Gamelogik/Physik an die Bildraten gekoppelt ist.
Falls Rendering und Gamelogik nicht gekoppelt sind, wie es heutzutage eigentlich sein solte, entscheide die CPU und die Abtastrate von Tastatur/Maus/Controller über den Inputlag. Somit benötigt man eigentlich eine schnellere CPU um den Inputlag zu senken.
360hz Monitore gibt es schon länger. Und ich hätte echt gerne eine Erklärung dafür wie das "entkoppelt" gehen soll.

Irgendwie ist es genau wie bei der Tour de France. 150 Teilnehmer von denen 5 um den Sieg fahren, alle auf hochgezüchteten Einzelanfertigungen und eine Million Zuschauer vor dem TV die sich denken "mit dem Fahrrad würde ich auch gewinnen, genau daran liegt es, an dem Fahrrad, nur das macht den Unterschied, ich kauf mir jetzt so ein Fahrrad, aber erst hol ich mir noch ein Bier".

So sieht es doch aus, wenn wir ehrlich sind. Denkt an mich heute Abend bei Deutschland - Ungarn, ich hätte die alle reingemacht. Ich vertrag nur das Zugfahren nicht, sonst wär ich dabei.
Hahaha, auf jeden Fall genau so! :daumen:
 
450W zieht die 4090 FE aus der Dose. Und wenn für Dich kein Unterschied zwischen 60 und 300 FPS sichtbar ist, dann würde ich mal zum Augen-Arzt gehen. Das alles ändert nichts daran dass hohe FPS Zahlen für niedrigen Input Lag sorgen, und das eben im kompetitiven Umfeld wichtig ist.

Es fährt ja auch kein F1 Wagen mit einem normalen PKW-Motor über die Kurse.
und was ist mit dem Rest des Systems? Das läuft mit Luft und Liebe? ;-)
Sicher werden einige einen Unterschied sehen. Mit dem richtigen Bildschirm, welcher auch nochmal über € 1000,- kostet. € 3000,- für 300 FPS.... wer's braucht und soviel Geld rumliegen hat....
Kommt auch drauf an was man zockt. Habe selber ein 144 Hz Bildschirm und auch mal mit 144 Bildern gezockt. Sorry, aber da sehe ich nicht wirklich einen nennenswerten Unterschied. Daher reichen mir die 60 FPS und ein sparsameres System.
 
und was ist mit dem Rest des Systems? Das läuft mit Luft und Liebe? ;-)
Sicher werden einige einen Unterschied sehen. Mit dem richtigen Bildschirm, welcher auch nochmal über € 1000,- kostet. € 3000,- für 300 FPS.... wer's braucht und soviel Geld rumliegen hat....
Kommt auch drauf an was man zockt. Habe selber ein 144 Hz Bildschirm und auch mal mit 144 Bildern gezockt. Sorry, aber da sehe ich nicht wirklich einen nennenswerten Unterschied. Daher reichen mir die 60 FPS und ein sparsameres System.

Korrekt. Wer hat der kann und so. Für Dich mag es Unfug sein so ein System zu haben, für andere eben nicht.
 
Was soll ich mit 300 FPS? Mein Monitor kann nur maximal 144 FPS darstellen.
Zudem spiele ich keinerlei Online MP Games gegen 12-jährige Internet Gangster. Bin klassischer Singleplayer Gamer. Da ist mir Input lag völlig egal. Dank G-Sync fühlen sich bei den meisten Games bereits 45 FPS an wie 60. Das reicht mir völlig. Zudem Spiele ich meistens mit trägen Gamepad also Xbox Gamepad am PC.
 
Was soll ich mit 300 FPS? Mein Monitor kann nur maximal 144 FPS darstellen.
Zudem spiele ich keinerlei Online MP Games gegen 12-jährige Internet Gangster. Bin klassischer Singleplayer Gamer. Da ist mir Input lag völlig egal. Dank G-Sync fühlen sich bei den meisten Games bereits 45 FPS an wie 60. Das reicht mir völlig. Zudem Spiele ich meistens mit trägen Gamepad also Xbox Gamepad am PC.
Dann bist Du nicht die Zielgruppe für diesen einen kleinen Teil von der Marketing Website die noch zig andere Punkte umfasst...
 
Was soll ich mit 300 FPS? Mein Monitor kann nur maximal 144 FPS darstellen.
Zudem spiele ich keinerlei Online MP Games gegen 12-jährige Internet Gangster. Bin klassischer Singleplayer Gamer. Da ist mir Input lag völlig egal. Dank G-Sync fühlen sich bei den meisten Games bereits 45 FPS an wie 60. Das reicht mir völlig. Zudem Spiele ich meistens mit trägen Gamepad also Xbox Gamepad am PC.
Du regst dich über 300FPS auf und sagst gleichzeitig das du die sowieso nicht brauchst. Dann bist du halt kein potenzieller Kunde einer neuen RTX 4090.
Und es macht in Shootern einen Unterschied ob man 300FPS oder nur 144FPS hat...auch mit 144hz Monitor. Du scheißt ja auch auch mal zwischen den auf dem Monitor angezeigten Frames.
Es gibt Tests mit E-Sport Profis die z.b. Schüsse auf einem 60hz Monitor bei 300FPS treffen, bei 60FPS aber nicht, weil die Hitbox auch mit den FPS "springt" und dadurch Schüsse ins Nichts laufen können. Bei einem stationärem Ziel verharrt die Hitbox auch länger, aber bei sich bewegenden Zielen sind mehr FPS entscheidend. Egal ob Singleplayer oder Online. Auch Gamepads sind davon betroffen, auch wenn der Nutzen geringer ist.
 
Und wenn für Dich kein Unterschied zwischen 60 und 300 FPS sichtbar ist, dann würde ich mal zum Augen-Arzt gehen. Das alles ändert nichts daran dass hohe FPS Zahlen für niedrigen Input Lag sorgen, und das eben im kompetitiven Umfeld wichtig ist.
Vorsicht!
300 FPS / niedrigen Input Lag bei Rundenstrategie und 300 FPS / niedrigen Input Lag bei einem Shooter (Sauerbraten :D ) machen da ein Unterschied wenn es darum geht Vorteile bzw. überhaupt ein Unterschied zu haben/sehen/merken.
Zu CRT Zeiten gabs keinen Inputlag, der kam erst mit Flachbildschirmen
ja ...nein...also jein...also nicht ganz. :D
 
Womit wir wieder beim Thema "was ist Inputlag" sind.
Es geht darum, dass beim CRT zwischen Eingang Signal am Monitor bis Ausgabe auf Monitor kein Inputlag wie bei LCDs vorhanden ist.
Deswegen ist für mich der Inputlag vom Monitor auch nur die Verarbeitungszeit vom Scaler des Monitors.
 
Und es macht in Shootern einen Unterschied ob man 300FPS oder nur 144FPS hat...auch mit 144hz Monitor. Du scheißt ja auch auch mal zwischen den auf dem Monitor angezeigten Frames.
Ich weiss, nur vertippt, aber ich musste herzlich lachen und direkt hier dran denken:lol:

1663946380997.png


Vorsicht!
300 FPS / niedrigen Input Lag bei Rundenstrategie und 300 FPS / niedrigen Input Lag bei einem Shooter (Sauerbraten :D ) machen da ein Unterschied wenn es darum geht Vorteile bzw. überhaupt ein Unterschied zu haben/sehen/merken.

ja ...nein...also jein...also nicht ganz. :D

Deswegen sind die Benchmarks auch nur mit Shootern gemacht worden. Mir ist klar dass es bei gemächlichem Gameplay nicht so relevant ist. :daumen:
 
Womit wir wieder beim Thema "was ist Inputlag" sind.
Es geht darum, dass beim CRT zwischen Eingang Signal am Monitor bis Ausgabe auf Monitor kein Inputlag wie bei LCDs vorhanden ist.
Deswegen ist für mich der Inputlag vom Monitor auch nur die Verarbeitungszeit vom Scaler des Monitors.

Der gesamte Input Lag kommt aber nicht vom Monitor:

1663946531891.png


Die PC Latency wird bei mehr FPS geringer.
 
300+ FPS in WQHD klingen hervorragend. Ich seh das so: Da meine WQHD Gsync Monitore eh nur bis 144Hz gehen bedeutet das für mich: Die 4090 ist nur zu 50% ausgelastet und hat noch ordentlich Reserven, obwohl ich dauerhaft 144fps* anliegen habe. Wenn dann noch DLSS3 dazu kommt geht die Auslastung (im idealfall) nochmals um 50% nach unten und die Karte liefert mir 144fps bei 25% Auslastung. Ich frage mich ob dafür der Boost überhaupt anspringt. Wäre ja schön WQHD@144fps bei 113 Watt. Ob das Realistisch ist werde ich ja bald sehen.

Ich spiele im Moment "Mittelerde - Schatten des Krieges" auf einer 1080TI. Mein Powerlimit steht default immer auf 45% (das Minimum meiner ASUS ROG Strix OC Version) damit falle ich in einigen Gebieten aber auf knapp unter 60fps. Also ALT+4 und zack steht das Powerlimit auf 55% und siehe da, 85 bis über 100fps. Ich will darauf hinaus das die 4090 dieses Szenario tatsächlich im "Idle" packen könnte. Das wäre klasse. Hoffentlich würgt man sie nicht ab mit zu wenig Strom.

Nur zur Info zum besseren einordnen meiner aussagen: Ich hänge, was Spiele angeht, deutlich hinterher. Wenn ich mich mal für eine Serie entscheide (DarkSouls, Darksiders usw.) spiele ich auch mal neuere Titel aber grundsätzlich ist das mein Weg, ich kaufe jetzt eine 4090 und spiele damit dann irgendwann das 'neue' Tomb Raider 1-3 also relativ alte Spiele. Dann aber mit allen Details (freu mich schon auf TressFX, heißer scheiß hab ich gehört :D) und trotzdem flüssig, was zu Release ja manchmal gar nicht möglich ist, siehe Cyberpunk.

*Neuere AAA Spiele werden sicher kaum mit 144fps auf einer 4090 laufen.
 
Ist das dann "Auch" bereits in dlss3 vom Kleingedruckten hochskaliert, oder nativ zu verstehen. Ich bin gelinde gesagt von NV im Moment hart genervt. Es vergeht wirklich kein Launch ohne eine bewusst versuchte Art von Beschiss, Einflussnahme oder dergleichen. Die Leistung auf Kosten der Wattzahlen nach oben zu bekommen ist ja probat, aber eben keine Effizienzbombe oder gar ein Fertigungswunder. Dlssr dann als Schubgenerator für das eigene RTX und die Zusatzcores anzupreisen und sich das noch als new Gen feature in 3. Auflage überteuert bezahlen lassen zu wollen ist nüchtern betrachtet eine Frechheit und ein Witz. Svogi in Hunt Showdown z.b. lässt sich doch auch ohne zusätzliche cores gut und ansehnlich skalieren. Softwareseitige Lösung. Gsync z.b. ebenso nachweislich ohne Hardware von Nvidia emuliert. Von der Konkurrenz free for all ...Softwareseitig bereitgestellt. Warum sollte ich also als Konsument höhere Preise für selbstgemachte exklusive HW Hürden tragen? Wenn AMD dieses mal fair bei der Preisgestaltung bleibt und mit der neuen Architektur wieder effizienter aufschliesst oder gar vorbei sehe ich keinen Grund diese Preise an NV für soetwas zu zahlen. Das fließt mir dann lieber in grössere m.2's oder andere HW. Warten wir mal auf native Spiele Benchmarks und schauen was ohne dlss3 und RTX Zauber bei etwas aufwendigeren Titeln bleibt.
 
Zurück