Geforce RTX 4090: Nvidia zielt auf mehr als 300 Fps in 1440p ab

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4090: Nvidia zielt auf mehr als 300 Fps in 1440p ab

Nvidias Geforce RTX 4090 sollte abermals das Limit dessen, was an Bildraten und Auflösungen in modernen Spielen möglich ist, nach oben verschieben. Nvidia selbst scheint mit der Grafikkarte aber nicht ausschließlich auf 4K- oder gar 8K-Gaming abzuzielen, sondern sieht den Einsatzzweck auch in 1440p mit hohen Bildwiederholraten. Lesen Sie dazu im Folgenden mehr.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4090: Nvidia zielt auf mehr als 300 Fps in 1440p ab
 
Meine 1080 macht auch in 1440p 300 Bilder, wenn ich es will. ^^ ;-P
<streichel>

Ne mal im Ernst, ich glaube nicht, dass man sich einen 5000 Euro PC zusammenstellt, um dann solche "Billig"spiele in noch höheren Frameraten zocken zu können, oder?

Ich hätte noch einen Tipp fürs geschickte Marketing:
RTX 4090 gegen Intel ARC in DX9-Spiele wie CSGO antreten lassen. Fällt die "10x" Marke (bei Min. FPS oder so) ? hahhaha ^^ ;-)

So, genug gestichelt und lustig gemacht, schönes Wochenende. :-)
 
Naja, sind das nicht alles Spiele die grafisch sowieso nicht so anspruchsvoll sind?
Äh, ja, aber genau darum geht es ja hier speziell? Also hohe FPS in Shootern um geringeren Input Lag zu erreichen.

Ich fände die 4K Leistung ja interessanter in Kombination mit Raytracing.
Dazu gab es doch auch Balken zu sehen? Nur noch nicht mit FPS Angaben, relative Performance ist da leider nicht ganz so schlüssig. Kommen sicher bald mit FPS Angaben.
Meine 1080 macht auch in 1440p 300 Bilder, wenn ich es will. ^^ ;-P
<streichel>

Ne mal im Ernst, ich glaube nicht, dass man sich einen 5000 Euro PC zusammenstellt, um dann solche "Billig"spiele in noch höheren Frameraten zocken zu können, oder?

Ich hätte noch einen Tipp fürs geschickte Marketing:
RTX 4090 gegen Intel ARC in DX9-Spiele wie CSGO antreten lassen. Fällt die "10x" Marke (bei Min. FPS oder so) ? hahhaha ^^ ;-)

So, genug gestichelt und lustig gemacht, schönes Wochenende. :-)

Du vertust Dich da, kompetitive Gamer wollen immer die höchst-möglichen FPS und den geringsten erreichbaren Input Lag. Im E-Sport kann man mittlerweile ja auch ganz gutes Geld verdienen.
 
Nividia will eindeutig die 4090 pushen. 68% CUDA Cores und 8GB RAM mehr plus etwas höherer Takt gegenüber der 4080 (16GB) bei 33% Aufpreis. Oder 115% CUDA Cores und 12GB mehr minus geringerer Takt gegenüber der 4070 (aka 4080 12GB) bei 78% Aufpreis.

Die 4080 bietet nur um die 22% mehr Cores und 4GB mehr RAM minus geringerer Takt gegenüber der "4070" bei ebenfalls 33% Aufpreis.

Solang die Skalierung nicht absolut mies ist, wird die 4090 die Preis-Leistungs-Krone der drei tragen. Wann in der Geschichte der (Nvidia)Grafikkarten haben jemals die Top End Modelle das beste Verhältnis von Leistung pro Dollar / Euro geboten?

PS: Sind in den Preisen auch Versicherungen im Fall einer Beschädigung des PCIe Slots enthalten? Die Teile scheinen ja so riesig und entsprechend schwer zu werden, dass da bei einigen Modellen bereits Krücken mitgeliefert werden. :D
 
Du vertust Dich da, kompetitive Gamer wollen immer die höchst-möglichen FPS und den geringsten erreichbaren Input Lag. Im E-Sport kann man mittlerweile ja auch ganz gutes Geld verdienen.

Genau daraum geht es ja. => ganz gutes Geld verdienen.
Es wird solange gesagt das man min. 300 FPS braucht um überhaupt "gut"zocken zu können bis es jeder glaubt.
Jedenfals solange bis die nächste Generation von HW da ist. Ob es dann 450 oder 600 FPS ist eigendlich egal da man den Punkt schon vor langem überschritten hat wo man (also min. 95% aller Nutzer) wirkliche spürbare Vorteile hat.
 
Äh, ja, aber genau darum geht es ja hier speziell? Also hohe FPS in Shootern um geringeren Input Lag zu erreichen.
Naja, das kann man auch mit bisherigen Grafikkarten, wenn man die Details etwas runterschraubt.
Dazu gab es doch auch Balken zu sehen? Nur noch nicht mit FPS Angaben, relative Performance ist da leider nicht ganz so schlüssig. Kommen sicher bald mit FPS Angaben.
Ja mal abwarten was die Tests so zeigen werden.
 
So ein Marketing passt leider sehr gut zu unserer Zeit. Irgendein Unsinn wird erzählt, die Leute glauben den Unsinn weil er ihr Ego schmeichelt und dann wird sich auf den Punkt gestellt "beweise mir doch das Gegenteil". Ja los, beweise mir, dass mich 600fps NICHT zu einem besseren Spieler gemacht haben. Siehst du? Kannst du nicht. Also hab ich recht.

Dabei spielt keine Rolle, dass diesen Leuten vorher auch nicht bewiesen werden musste, dass 600fps sie zu besseren Spielern machen. Das haben sie einfach so geschluckt mit der erst besten Pseudoerklärung die ihnen über den Weg gelaufen ist.

Traurig ist, dass dieses Schema halt nicht nur bei Fortnite existiert, sondern auch viele politische Diskussionen bis ins TV dominiert. Endlich kann sich jeder alles zusammenfantasieren und in der Fantasiewelt leben, sollen die anderen doch erstmal das Gegenteil beweisen. Generation Pippi Langstumpf, ich mache mir die Welt, wie sie mir gefällt.
 
Naja, das kann man auch mit bisherigen Grafikkarten, wenn man die Details etwas runterschraubt.
Hast Du die maximalen FPS Zahlen von der 3090ti in den Spielen zur Hand damit man vergleichen kann? Ansonsten ist das ja kein Argument...

So ein Marketing passt leider sehr gut zu unserer Zeit. Irgendein Unsinn wird erzählt, die Leute glauben den Unsinn weil er ihr Ego schmeichelt und dann wird sich auf den Punkt gestellt "beweise mir doch das Gegenteil". Ja los, beweise mir, dass mich 600fps NICHT zu einem besseren Spieler gemacht haben. Siehst du? Kannst du nicht. Also hab ich recht.

Dabei spielt keine Rolle, dass diesen Leuten vorher auch nicht bewiesen werden musste, dass 600fps sie zu besseren Spielern machen. Das haben sie einfach so geschluckt mit der erst besten Pseudoerklärung die ihnen über den Weg gelaufen ist.

Traurig ist, dass dieses Schema halt nicht nur bei Fortnite existiert, sondern auch viele politische Diskussionen bis ins TV dominiert. Endlich kann sich jeder alles zusammenfantasieren und in der Fantasiewelt leben, sollen die anderen doch erstmal das Gegenteil beweisen. Generation Pippi Langstumpf, ich mache mir die Welt, wie sie mir gefällt.
Input Lag ist nicht von der Hand zu weisen. Das ist wie bei der Tour de France, da geht auch keiner ins Rennen mit einem Holland-Rad. Im kompetitiven E-Sport will man halt die beste Ausgangssituation, genauso wie in jedem anderen Material-Sport (Formel 1, Radrennen, Ski Sport).

Natürlich ist das Marketing, aber was daran jetzt verwerflich ist wüsste ich gern. Machen alle Hersteller (egal von welchem Produkt) ja auch.
 
Die Aussagen von Nvidia gehen hier an der Realität vorbei.

1. Ich kann auf FullHD jetzt schon mit 500 Frames auf meiner GTX1070 spielen (Valorant). Das Limit ist die CPU (5800x).
2. Einige spielen auf FullHD, es gibt aber sehr viele, die sogar mit noch niedrigeren Auflösungen spielen

-> Glaube nicht das ein E-Sport-Profi auf 1440p wechseln wird. Und die 3% bessere Treffbarkeit sehe ich auch eher als theoretischer Natur an.
 
Sorry aber das ist ja eine Verarsche, die spiele haben absolut keine Anforderung.

Wie sieht es hier denn aus?
MSFS, Escape from Tarkov, Division 1+2, Ark usw.?!
 
Äh, ja, aber genau darum geht es ja hier speziell? Also hohe FPS in Shootern um geringeren Input Lag zu erreichen.


Dazu gab es doch auch Balken zu sehen? Nur noch nicht mit FPS Angaben, relative Performance ist da leider nicht ganz so schlüssig. Kommen sicher bald mit FPS Angaben.


Du vertust Dich da, kompetitive Gamer wollen immer die höchst-möglichen FPS und den geringsten erreichbaren Input Lag. Im E-Sport kann man mittlerweile ja auch ganz gutes Geld verdienen.

Wenn du so argumentierst, dann geht es doch aber auch eher um die Frage, ob eine 4090 bald als "Minimum" benötigt wird, um solche E-Sport-Titel überhaupt noch professionell genug betreiben zu können?
Klar muss man bei Bildschirm und Eingabegeräte alles möglichst optimal haben, aber man kann auch über das Ziel hinaus schießen (viel hilft viel?).
Auch ich habe ganz neu eine 8K Maus und 175hz - und bin noch schlechter als vorher, wohl wegen dem hohen Alter. lol ^^
Ich meine, was haben die armen Gamer bisher gemacht?
Sind nur Gamer mit einer 3090 Ti ganz oben in der Weltrangliste vertreten? Also: noch? ^^
Ist bei den genannten Spielen da denn wirklich noch so ein großer Schritt nach oben möglich, dass es sich damit sogar wirtschaftlich lohnen würde, sich jetzt nach 2 Jahren schon den nächsten 5000 Euro PC mit 4090 und dickem 13900K(S) etc. hinzustellen zu müssen?
Selbst wenn dem so ist, dann machen die Werbung für 0,01% der Spieler dieser Games, also für die "wichtigen" 200 Gamer auf der Welt, die die Karte ja so oder so gekauft hätten, weil sie nur und immer gleich direkt das Neueste und Beste kaufen.
Die Werbung dafür ist also überflüssig.
Und die Kunden, die beworben werden müssten, um auf das Produkt aufmerksam gemacht zu werden, die juckt es nicht, weil sie es wegen den Preisen eh nicht kaufen würden und maximal im Midrange-Bereich unterwegs sind.
Die allermeisten Spieler solche Games sind die klassischen 1060 Preis- und Leistungsliga.
Daher verstehe ich dieses ganze Marketing-Trara nicht wirklich.
Wenn die Werbung für die 4K-Grafikblockbuster machen (wofür die Karte ja eigentlich gedacht ist) und da mit 2-4facher Leistung sprechen, ist doch logisch, dass die Werte in jedem Bereich darunter ebenfalls explodieren sollten.
Ich empfinde das also eher für überflüssig bzw. zu nebensächlich, als das man das extra groß aufziehen müsste.
Das hat was von Intels Präsentationsfolie mit Word-Benchmarks.
Auch geschenkt, oder? Aber vielleicht tue ich jetzt allen Office-Nutzern unrecht, die das schon als sehr kaufentscheidend empfunden haben, dass mit einem 11 bzw. 12900K(S) im Office-Bereich die Party erst so richtig abgeht.
Ich sollte meinen Chef informieren, mein AMD Ryzen 2700X startet Windows einfach viel zu langsam. ^^ ;-)
So, genug darüber "gefachsimpelt", ich muss leider arbeiten. Mit einer unter 10 Euro Maus und Tastatur (<frust>) Pause ist schon lange rum. uuuuuh. Tschö. :-)

Nachtrag:
Also wenn ein Pro-E-Sportler wirklich auf der Suche nach einer "besten" Karte ist, schaut der dann nicht insbesondere dann auf die Frametimeverläufe und die allgemeine Performanceleistung je nach Hersteller, wo sein entsprechendes Spiel dann besonders gut drin ist? Da ist der reine Benchmarkbalken oder der beste Querschnitt aus 20 Spielen dann auch nicht Verkaufsargument Nr. 1.
Es soll ja sogar schon vorgekommen sein, dass eine neue Kartengeneration aus welchen Gründen auch imemr (anfangs wegen Treiberschwierigkeiten evtl.) dann zwar viele höhere Frameraten zaubert, aber insgesamt mehr "stottert", weil die Frametimes sehr unruhig sind. Würde so ein Spieler dann trotzdem aufrüsten, wenn das ja eigentlich ein (großer) Nachteil sein müsste?
 
Zuletzt bearbeitet:
Die Aussagen von Nvidia gehen hier an der Realität vorbei.

1. Ich kann auf FullHD jetzt schon mit 500 Frames auf meiner GTX1070 spielen (Valorant). Das Limit ist die CPU (5800x).
2. Einige spielen auf FullHD, es gibt aber sehr viele, die sogar mit noch niedrigeren Auflösungen spielen

-> Glaube nicht das ein E-Sport-Profi auf 1440p wechseln wird. Und die 3% bessere Treffbarkeit sehe ich auch eher als theoretischer Natur an.
Für Esport ist 24“ die beliebteste Monitorgröße und die gibts (so weit ich weiß) nicht in 1440p, also haste mit überwiegend Full HD im Esport recht. Shroud zb der ja nicht mehr aktiv spielt, hat schon öfters gesagt ein 24“1440p wäre ein Traum.
Und in Full HD waren die großen Ampere schon echt schei*e.
Ist halt einfach dummes marketing geblubber von einem verwirrten Menschen der immer noch meint die Lederjacke sei cool und Kunden abzuzocken ebenso.
 
Das ist doch kein Kaufargument, wenn ich von 30fps bis 120fps mehr hätte; JA
aber nicht statt 150fps 300fps oder 600fps das schaffen die meisten Monitore und Fernseher eh nicht vom Auge der meisten Menschen mal ganz abgesehen.

 
Zurück