News Diablo 4: Nvidia feiert 400 Fps mit Geforce RTX 5090

Ohne Input kann auch 24fps flüssig aussehen, man muss die fehlende Bildwiederholrate "einfach" nur mit Motion-Blur kompensieren.

Ist für Spiele meines Erachtens nach (bis auf den Einsatz für spezielle Effekte) komplett ungeeignet, da das Bild viel zu verwaschen wird und man keine Details mehr erkennt.

Sobald User-Input, und damit Latenz ins Spiel kommt, merkt man den Unterschied aber sehr deutlich. Wer das rausfinden will, dem empfehle ich einfach mal den Monitor auf 30 Hz runter zu stellen. Das merkt man selbst bei Mausbewegungen auf dem Desktop.

Klar, da muss man auch gar nicht auf 30 gehen, ist auch bei 60 deutlich.

Du übersiehst, dass sich nVidia damit rühmen kann 400 fps in Diablo 4 zu bewerben.

Hö hö... ja...
Und fraglich auch, wie viele den Monitor dazu haben...
 
Was genau sagt PCL= 25ms ? (z.Vgl. nativ, ... olle 60fps = 16ms Frametime)
ne average Zahl ist natürlich auch nicht ideal als alleiniger Wert, ... ggü. max.Latenz
falls man die Latenz in nem Graphen/Frametimeverlauf sehen könnte, = aussagekräftiger

Fühlt sich das dann wie hakelige 40fps an ?

PC Latency focuses on the performance of a desktop PC/GPU and does not include the mouse or monitor display latency.
aus frameview Beschreibung
Ist das so noch korrekt für die 5000er ?
 
Zuletzt bearbeitet:
Prinzipiell haste ja Recht... ich tue mich nur immer schwer zu akzeptieren, wie unglaublich damlich eine PR-Kampagne heutzutage sein darf um dennoch erfolgreich zu sein.
Wirtschaftlich betrachtet machen sie alles richtig. Wenn "nur" 1.000 Leute auf den PR-Quatsch reinfallen, dann hat es sich schon gelohnt für Nvidia. Ist ähnlich wie mit den Spam-Mails. Minimaler Aufwand, maximaler "Ertrag".

Ich hab wenn ich alles laufen lasse auch irgendwas zwischen 200 und 300 fps je nach Szene, was aber völlig schwachsinnig ist. Ich habn framelimiter im Spiel auf 100 GSync gestellt was mir mehr als ausreicht (ich bemerke den Unterschied wirklich nicht ob 100 oder 300) und dafür läufts halt mit weniger als halbem Verbrauch (!) und Minimaldrehzahl von Lüfter auf CPU und GPU.
Was frisst denn deine RTX 4090 UV @ 4K?
 
Das glaube ich nicht, schnell und geringe Latenzen sind wichtig keine Frage aber 400fps entscheiden nicht über Sieg oder Niederlage, der entscheidende Faktor ist immer noch die Person die vor der Maschine sitzt.
Das habe ich auch nicht behauptet. Sie sind wichtig aber nicht der alles entscheidende Faktor.
 
Was frisst denn deine RTX 4090 UV @ 4K?
Ich habe "nur" eine 4080 ;-)

Ich habe 3 Profile eingerichtet:
1.) Benchmark/Alles was geht: ~2,9 GHz, 320W (mehr kann die Karte nicht)
2.) Anspruchsvolle Spiele: 2,7 GHz @ 0,965v --> ~ 240W bei voller Last
3.) Stromsparprofil: 2,4 GHz @ minimal einstellbare Spannung (925mV rum) --> 180W bei voller Last

Für Diablo 4 liegt selbstverständlich Profil Nummer 3 an und selbst das wird nicht annähernd ausgenutzt. Ich spiele in 4K Ultra ohne RT mit DLSS Quality und nem FPS-Limiter auf 100 die auch immer gehalten werden. Das resultiert in 100-120W rum auf der GPU, in vielen Szenen hält die 4080 es nicht mal für nötig bis 2,4 GHz hochzutakten.
 
Merkt man wirklich einen Unterschied zwischen 350 und 400 fps? :ugly:

Nvidia feiert, aber womit?!? :(

Irgendwie ist das so, als wäre man zu einer Party eingeladen, aber es gibt nichts zu trinken. :lol:
Jup und alle die vor den Shops sitzen oder ihre 4090 verkauft haben denken sich gerade:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ah schön wie nVidia dafür sorgt das Fanta4 wieder gehört wird :D
Ich habe "nur" eine 4080 ;-)

Ich habe 3 Profile eingerichtet:
1.) Benchmark/Alles was geht: ~2,9 GHz, 320W (mehr kann die Karte nicht)
2.) Anspruchsvolle Spiele: 2,7 GHz @ 0,965v --> ~ 240W bei voller Last
3.) Stromsparprofil: 2,4 GHz @ minimal einstellbare Spannung (925mV rum) --> 180W bei voller Last

Für Diablo 4 liegt selbstverständlich Profil Nummer 3 an und selbst das wird nicht annähernd ausgenutzt. Ich spiele in 4K Ultra ohne RT mit DLSS Quality und nem FPS-Limiter auf 100 die auch immer gehalten werden. Das resultiert in 100-120W rum auf der GPU, in vielen Szenen hält die 4080 es nicht mal für nötig bis 2,4 GHz hochzutakten.
Könnte garantieren das du mit dem 2,7 GHz Profil bei 0,965v in Path of Exile 2 oder Metro Exodus inkl. DLDSR oder Raytracing nicht mit 240w hin kommst :D ;)

Aber ja versteh was du meinst, meine läuft die meiste Zeit inzwischen auf 2500 mit 0.900mv.
Da kommt dann selbst bei oben genannten Worst Case Beispielen ohne FPS Cap inkl 4k DLDSR und allem möglichen nicht über 260w hinaus. Das heißt bei "normalen" spielen dümpelt se meist bei ~200w rum Volllast.
 
Könnte garantieren das du mit dem 2,7 GHz Profil bei 0,965v in Path of Exile 2 oder Metro Exodus inkl. DLDSR oder Raytracing nicht mit 240w hin kommst :D ;)
Doch, ganz sicher - zusätzlich zu den Einstellungen ist das Powerlimit da nämlich gecappt. :-D
Wenns nicht reicht (was tatsächlich passieren kann je nach Spiel und Einstellungen) geht der Takt halt runter. Das ist aber oft nur minimal, sprich die 240W reichen fast immer für die vollen 2,7 GHz und wenns mal knapp wird geht die Karte notfalls mal 50-100 MHz runter, mehr ists nicht abseits von synthetischen Extremfällen. Wie du schon sagst im Extremfall mögen da mal 20W fehlen aber das übersehe ich einfach großzügig. In der Performance merkste das eh nicht.

Aber ja versteh was du meinst, meine läuft die meiste Zeit inzwischen auf 2500 mit 0.900mv.
Das kann ich gar nicht einstellen. Egal wie tief ich die Spannung setze, etwa 920-925mV ist das niedrigste was übernommen wird.
 
Ja gut wenn du zusätzlich das PT gecappt hast ist klar :)
Schade das du nicht tiefer kommst, eventuell mit einem anderen Bios? Bei mir gehts nicht tiefer als 0.900.

Zum Verbrauch im angesprochenen Worstcase:
Stock:
Stock.jpg
Meine 2500:
2505.jpg
Und quasi deine 2700:
2700.jpg

In Hoghwarts als "normaleres" Beispiel:
Stock:
Stock.jpg
Meine 2500:
2505 MHz.jpg
Und wieder quasi deine 2700:
2700 MHz.jpg
 
Schade das du nicht tiefer kommst, eventuell mit einem anderen Bios?
Wäre wahrscheinlich möglich - aber ganz ehrlich, das Risiko gehe ich wegen 20 Millivolt nicht ein. ;-)

Es ist generell erstaunlich wie wenig fühlbarer Performanceunterschied da wirklich bei rumkommt. Denn ganz ehrlich, ich würde in den allermeisten Fällen ohne auf die Zahlen zu schauen nicht mal bemerken ob meine Karte jetzt 180, 240 oder 320W "darf" - insbesondere bei so wenig anspruchsvollen Spielen wie Diablo 4. Das würde höchstens an der Geräuschkulisse bei fordernden Spielen auffallen wenn die Lüfter bei 1700 statt 1000 drehen.

Bei der 5090 um dies hier geht ists laut manchen Messungen im Netz ja sehr ähnlich - ob man der 400, 500 oder 600W erlaubt hat meist nur einen einstelligen Prozentsatz an Performanceunterschied. Klar wirds in Extremsituationen wie auch denen in deinen Screenshots mehr sein aber für mich würde auch hier ganz klar kühler und leiser (es geht NICHT um "billiger!!") überwiegen vor den letzten 10% Performance die man ggf. mit 200W mehr (!) erkaufen kann.
Klar, wenn man 400 statt 350 fps in D4 möchte ist das natürlich keine Option :-P
 
Hab gestern auf Reddit dieses Meme hier gefunden:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Kann diese Lossless Scaling App auf Steam was? Die Kommentare sind da eher gespalten..
 
Kann diese Lossless Scaling App auf Steam was? Die Kommentare sind da eher gespalten..
Kommt stark auf Einstellungen und Spiel an. In manchen Szenarien scheints ganz ordentlich zu sein, woanders völlig unbrauchbar. Man kann da aber lustige Sachen einstellen, etwa 20 generierte zwischenframes zwischen zwei Renderframes (NV-MFG geh nach Hause!! :ugly: ), ich hab da glaub ich Witcher3 in nem YT Video gesehen. Das haut dann unfassbar hohe fps raus aber man muss sich halt mühe geben um mit stramm zugegkniffenen Augen noch zu erkennen dass es Witcher3 ist... :haha:
 
Zurück