Geforce RTX 4090: 2,8 GHz Boost in Cyberpunk 2077 und 25 % weniger Leistungsaufnahme mit DLSS 3

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4090: 2,8 GHz Boost in Cyberpunk 2077 und 25 % weniger Leistungsaufnahme mit DLSS 3

Nvidia führte bei der Vorstellung der Geforce RTX 4000 Cyberpunk 2077 als Demonstration aus und lieferte auf einem für die Medien bestimmten Event auch Werte mit der Geforce RTX 4090, die nun an die Öffentlichkeit gelangten. Die Karte boostete 300 MHz über den offiziellen Angaben und konsumierte mit DLSS 3 25 Prozent weniger Strom bei etwa doppelter Bildwiederholrate.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4090: 2,8 GHz Boost in Cyberpunk 2077 und 25 % weniger Leistungsaufnahme mit DLSS 3
 
Zusammenfassend bleibt also: DLSS 3 kann im Idealfall etwa die doppelte Menge an Bildern bei einem Drittel niedriger Latenz abliefern und dabei ein Viertel der Leistungsaufnahme sparen.

Ich glaube noch nicht an diesen Satz. Im ersten Fall wie ohne Nvidia Reflex die Latenz angezeigt und im zweiten Fall mit Nvidia Reflex. Der Unterschied ist also nicht DLSS3, sondern Nvidia Reflex unter DLSS3.

Interessant wäre jetzt Szenario 1 ohne DLSS3 und mit Nvidia Reflex. Ich tippe stark darauf, das dann die Latenz geringer sein wird als mit DLSS3. Schließlich wird dort ein aktuelles Bild berechnet, dieses genommen für eine Berechnung des Zwischenbilds, das Zwischenbild wird angezeigt und erst dann wird das "aktuelle" Bild angezeigt. Man hinkt also immer hinterher.

-> Unterschied Reflex!
 
Falls es jemanden interessiert: Die 3090 schaffte Avg. 46,4 FPS in 1440p, allerdings wird die Testszene vermutlich nicht die gleiche sein: https://www.pcgameshardware.de/Cybe...-aenderungen-relase-benchmark-test-1389822/2/

Also nach dieser Schätzung grob 25 % schneller ohne DLSS?
Das wäre aber verdammt wenig wie ich finde.

EDIT:

Ob das stimmt weiß ich nicht ^^

1663913175497.png
 
Zuletzt bearbeitet:
Reden wir hier über den Verbrauch der GPU oder um die Total Board Power?
Eine 6900XT zieht ja auch schon 250W mit dem Chip + 50W für den Rest.
Mit OC sind auch 350W drin.

Deshalb ist es richtig interessant.
Sind die genannten Zahlen hier der Gesamtverbrauch, dann beide Daumen hoch für Nvidia.
Ist das nur der Verbrauch für die GPU, dann kaufe ich sie definitiv nicht.
Auch wenn sie für VR bestimmt extrem nützlich wäre...
 
Hmm 50-55 Grad. Da würde es mich echt mal interessieren, ob die mit dem Standard-Kühldesign lief. Kann ich mir eigentlich kaum vorstellen. Der Kühler soll ja besser sein, aber so viel besser? Wäre auf jeden Fall beeindruckend, auch wenn ich mir keine RTX 4000er Karte kaufen werde :D

Grüße
 
Genau, ohne DLSS 3 ist sie sicher langsamer als eine 3090, das meinst Du doch, oder? ;)
Er meint damit vermutlich das sich die Karte nur mit DLSS 3 von der vorigen Karten absetzen kann, zumindest in den 2-3 RT Spielen die existieren bzw. gezeigt wurden. Oder würdest du, wenn du bereits eine 3090Ti besitzt eine 4090 kaufen, weil sie 10-20% schneller ist? DLSS gibt es ja nicht flächendeckend, somit muss man abwägen ob es sich überhaupt lohnt eine 4090 zu kaufen oder lieber eine gebrauchte 3000er.
 
Kann gut sein, ich bin da nicht so drin in der Thematik. Ich warte auf Benchmarks, die Lügen nicht.
 
Abwarten !
Auf Hersteller Presentationen gebe ich garnix mehr
Selektierte GPUs die bei 50-55°C läufen sind nicht Real Life
Im realen Leben soll eine GPU leise sein und wird mit Luft eher Richtung 70-80°C betrieben

Sicher wir die GPU schneller sein aber ich hoffe wirklich das NV diesesmal die GPU Vcore bessere Optimiert

Wenn ich sehe was mit Undervolt an Strom gespart werden kann ist es wirklich eine Frechheit die GPUs so zu verkaufen
 
Falls es jemanden interessiert: Die 3090 schaffte Avg. 46,4 FPS in 1440p, allerdings wird die Testszene vermutlich nicht die gleiche sein: https://www.pcgameshardware.de/Cybe...-aenderungen-relase-benchmark-test-1389822/2/
Ich hab zwei Shots mit einer RTX 3090 gemacht. Das ist mit Raytracing eine sehr anspruchsvolle Stelle - das ist nicht exakt die gleiche Stelle und Uhrzeit, aber close enough für eine grobe Einordnung.

WQHD nativ, Psycho-Raytracing:
Cyberpunk 2077 - RTX 3090 - Cherry Blossom Market - Pycho-Raytracing, 1440p nativ.jpg


WQHD, DLSS 2 Quality, Psycho-Raytracing
Cyberpunk 2077 - RTX 3090 - Cherry Blossom Market - Pycho-Raytracing, 1440p, DLSS 2 Quality.jpg


Ist das nur der Verbrauch für die GPU
Das ist tatsächlich nur die Grafikkarte.

Ob das stimmt weiß ich nicht ^^
Kommt hin. Die Werte der RTX 4090 habe ich selbst aus den Messdaten im Excel ablesen können, die Werte der RTX 3090 Ti passen soweit auch (siehe Bilder oben).

Gruß,
Phil
 
Zuletzt bearbeitet:
Von einer 2000 Euro Karte, würde ich erwarten, dass sie die 170 FPS ohne DLSS schafft.

Wird hoffentlich irgendwann wieder abgeschafft. So wie mp3's.

BTW: Was ist denn heute los?! 4 verschiedene Artikel gelesen, und in jedem irgendwelche Copy/Paste Satzbau Fehler drin. Wollten wohl alle schnell ins Wochenende.
 
Danke für die 2 Bilder als Vergleich, daran sieht man wieder mal, DLSS-->jegliche Varianten, verschluckt zu viele Details und macht das Bild insgesamt blasser (für mich jedenfalls). Ist ja auch kein Wunder, wo Daten fehlen und nur hoch-/dazugerechnet werden, kann das Endergebnis nicht besser als nativ sein. Deswegen habe ich noch nie DLSS aktiviert und das bleibt auch in Zukunft so, Nur nativ ist gut^^. Ist wie bei anderen Elektronische Geräten, diese Hilfsmittelchen, machen das Bild meistens nur schlimmer.
 
Zurück