Geforce RTX 4090: Nvidia mit 8K-Benchmarks mit und ohne DLSS 3

Schon traurig. Hier gehts in erster Linie um die Software, DLSS 3.0. Ich kann weiterhin nur hoffen, dass es noch nen DLSS 2 Boost oder ein DLSS 3 light für die 3000er Karten gibt. Dann wären die 4000er Karten für diese krassen Preise nämlich ein Vollflop. Aber irgendwas muss den Preis ja wieder halbwegs rechtfertigen. Andererseits muss man die Latenz noch genau untersuchen, da soll DLSS 3 ja Probleme erzeugen....
 
Schon traurig. Hier gehts in erster Linie um die Software, DLSS 3.0. Ich kann weiterhin nur hoffen, dass es noch nen DLSS 2 Boost oder ein DLSS 3 light für die 3000er Karten gibt. Dann wären die 4000er Karten für diese krassen Preise nämlich ein Vollflop. Aber irgendwas muss den Preis ja wieder halbwegs rechtfertigen. Andererseits muss man die Latenz noch genau untersuchen, da soll DLSS 3 ja Probleme erzeugen....

Nvidia wird sich garantiert nicht selbst ein Bein stellen. Vielleicht kommt DLSS 3 in 1-2 Jahren für Ampere, ich glaube aber nicht dran.

Die Latenz steigt nicht im Vergleich nativ vs DLSS 3. Ja, die Zwischen-Frames erhöhen die Latenz, dafür ist bei DLSS 3 immer Nvidia Reflex dabei was die Latenz wieder ausgleicht. Man gewinnt als durch die Zwischen-Frames keine Latenz, verliert aber auch keine. Bei Spielen die sowieso Nvidia Reflex unterstützen hat man die beste Latenz mit DLSS 2.
 
Naja, wenn man bedenkt, dass 80% der Spieler maximal auf FHD zocken und nur knapp 7,5% höher als WQHD, ist das Thema gehörig an der Nachfrage vorbeientwickelt. ;)

Soll heißen, bis 4K- oder gar 8K-Gaming wirklich relevant und in der Breite ankommen, vergehen noch ein paar Jahre.
 
Zum Glück spiele ich nur in 4K ? 8K ist etwas sehr weit an der Realität vorbei.

Die RTX 4090 wird es trotzdem weil AMD mit dem Vollausbau von Navi 31 nicht mithalten kann gegen AD102
 
Zum Glück spiele ich nur in 4K ? 8K ist etwas sehr weit an der Realität vorbei.

Die RTX 4090 wird es trotzdem weil AMD mit dem Vollausbau von Navi 31 nicht mithalten kann gegen AD102
In klassichen Games legt die 4090 zirka 70% zu ggü der 3090
AMD wird bei 300 Watt 50% schaffen angeblich. Da sind noch 150 Watt Budget für den Rest :D
 
Naja, wenn man bedenkt, dass 80% der Spieler maximal auf FHD zocken und nur knapp 7,5% höher als WQHD, ist das Thema gehörig an der Nachfrage vorbeientwickelt. ;)

Soll heißen, bis 4K- oder gar 8K-Gaming wirklich relevant und in der Breite ankommen, vergehen noch ein paar Jahre.
Genau, ne 4090 wurde bestimmt für die FHD und WQHD Nachfrage konzipiert, das können unmöglich Produkte (weit) unterhalb dieses Models bedienen.

Soll heißen, die 4090 ist nichts für die breite Masse und genau das Produkt für 4K und 8K Gaming. Alles andere ist am Thema vorbei.

? 8K ist etwas sehr weit an der Realität vorbei.
Also meine Realität hat nen HDMI2.1 Kabel zu nem 8K TV ?
 
Zuletzt bearbeitet:
"Wer 8K mit wenigstens 60 Fps spielen will, kommt an DLSS (3) selten vorbei."

Konnte doch schon die 3090 (non Ti) 8K HDR Gaming OHNE DLSS 3 laut Lederjohnny ... :daumen:

MfG Föhn.
 

Anhänge

  • 8K.jpg
    8K.jpg
    296,8 KB · Aufrufe: 55
Naja, wenn man bedenkt, dass 80% der Spieler maximal auf FHD zocken und nur knapp 7,5% höher als WQHD, ist das Thema gehörig an der Nachfrage vorbeientwickelt. ;)

Soll heißen, bis 4K- oder gar 8K-Gaming wirklich relevant und in der Breite ankommen, vergehen noch ein paar Jahre.

80% der Spieler nutzen 1080P....Quelle bitte...
 
Da sind die Chinesen nicht die Einzigen.
Meinen US-Kollegen haben sie zuletzt bei seiner Ankunft am Flughafen in den USA beim Vornamen gegrüßt und nicht einmal nach dem Pass gefragt. Gruselig.
Wird bei uns nicht anders laufen, warum läuft man wohl gegen das EUGH-Urteil Sturm, dass die anlasslose Übermittliung von Fluggastdaten rechtswidrig ist? https://www.heise.de/news/EuGH-Urte...tueberwachung-tricksen-7274737.html?seite=all

Die Top-GPU kommt in 4k mit Raytracing ohne DLSS auch in Cyberpunk 2077 nicht auf 60 FPS avg. Da sollen 8k möglich sein?

"beste" ist halt relative. Die sind P/L mäßig alle nicht prickelnd. Nvidia scheint halt die Apple-Strategie zu fahren: "Wenn der Preis vom kleineren Produkt unattraktiv genug ist greifen die Leute gleich zu Premium"
Genaue Leistungseinschätzungen wird dir keiner geben können, zumal bisher nur Tests von Nvidia selbst bzw. unter deren Aufsicht/Vorgaben stattfanden. Am ehesten kannst du es dir wohl über das Verhältnis aus Shadern/Tensor Cores/etc. ausrechnen.

Genau das ist ja der Punkt warum soll ich dann eine 4090 mit DLSS fahren, das schafft eine 4060 ja genauso mit Hilfe und Software Tricks.

Macht Null Sinn die 4090 wenn sie selbst für 8k zu schwach ist aber das dreifache kostet. Die Bildqualität ist ja eh nicht nativ gerechnet wo liegt dann der Mehrwert in der 4090 im Vergleich mit der 4060?

Die 4090 schafft ja nichtmal die einfachsten Spiele ohne DLSS3.0
 
Genau, ne 4090 wurde bestimmt für die FHD und WQHD Nachfrage konzipiert, das können unmöglich Produkte (weit) unterhalb dieses Models bedienen.

Soll heißen, die 4090 ist nichts für die breite Masse und genau das Produkt für 4K und 8K Gaming. Alles andere ist am Thema vorbei.


Also meine Realität hat nen HDMI2.1 Kabel zu nem 8K TV ?

Die Realitäten werden hier immer passend definiert. Mal zählt nur FullHD Rasterleistung, dann doch wieder 4K, dann hat niemand RT fähige Karten, DLSS sieht immer mies aus, Nvidia hat exorbitant höhere TDPs und Preise als AMD, wenn AMD dann die TDPs und Preise auch erhöht ist Nvidia Schuld. Wird sich halt zurecht gebogen dass es passt.

Ich find's krass dass 8K Gaming überhaupt nativ schon möglich ist.

8K: 33.177.600 Pixel
4K: 8.294.400 Pixel
WQHD: 3.686.400 Pixel
FullHD: 2.073.600 Pixel

Der Unterschied beim rendern ist riesig.
80% der Spieler nutzen 1080P....Quelle bitte...
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Beste Quelle die wir haben.

1664387809231.png
 
80% der Spieler nutzen 1080P....Quelle bitte...

Was für Quelle? Schau im Netz Umfragen an, bei Steam kannst du auch schauen. Die absolute Mehrheit nutzt nach wie vor 1080p. Selbst 1440p hat sich noch nicht wirklich flächendeckend etabliert, von 4K ganz zu schweigen und 8K, da kannst noch mindestens 20 Jahre warten.
 
Du brauchst einfach schlechtere Augen dann merkst du den Unterschied nicht mehr :D

DLSS ist schon echt Nice auch wenn das wohl zukünftig für Valorant und den ganzen E-Sport spielen nicht gut ist.
Haha der ist gut, ja. Ich war auch mal ein Bild-Purist. Immersion. Große Bildschirme, Hohe Auflösungen. Mittlerweile bin ich aber alt geworden und meine Augen schlechter. Noch immer ist mir Immersion und große Bildschirme wichtig. Aber schon die Auflösung ist bei mir mittlerweile kein Selbstzweck mehr, sondern lediglich notwendig um eine für mich optimale PPI basierend auf der Bildschirmgröße zu bekommen, ab einem bestimmten Punkt bringt mir mehr gar nichts weil ich es nicht sehen kann. Da ich schon seit bald 10 Jahren ausschließlich auf 40" oder größer zocke und dabei 75-100cm Sitzabstand habe, muss es bei mir UHD sein, weil ich sonst die Pixel zähle. Aber von 8k habe ich eigentlich nichts mehr, das steht nicht auf meiner Wunschliste. Und bei der Bildqualität, ja wenn ich genau darauf achte, dann sehe ich auch bei DLSS immer noch das es nicht perfekt ist. Aber dazu muss ich schonm in den Analysemodus gehn und förmlich in den Bildschirm kriechen. Ich will aber mein Spiel genießen. Und da sehe ich in den allermeisten Fällen entweder keinen Unterscheid oder es ist absolut nicht störend.

Daher finde ich DLSS toll und aktiviere DLSS Quality wo immer möglich. Mein Ziel für die nahe Zukunft ist, 120fps in UHD möglichst flächendeckend und mit bestmöglicher Qualität und maximalen Details überall spielen zu können, ich brauche nicht mehr Auflösung und nicht mehr FPS als das. Und DLSS ist mir da eine große Hilfe. Ich nutze aber ausschließlich den Quality Modus und keine der Balanced oder Performance Modi.
 
Wenn die Karte in 8K nativ 30fps schafft, dann müsste sie in 4K nativ doch schon die 100fps knacken. Das ist auf jeden Fall respektabel.

Die Frage für mich ist eher, was überhaupt der Grund für 8K sein soll. Wenn die Performancesteigerungen heute noch so schnell vorangehen würden wie in den 2000ern, dann wäre das ja keine Frage. Dann hätte man sowieso genug Leistung für solche Auflösungen und würde das einfach mitnehmen.

So wie es jetzt aussieht werde ich in absehbarer Zeit aber keinesfalls auf mehr als 4k hochgehen (außer Widescreen, wobei ich auch da bei 2160 Zeilen bleiben würde). Ich kann bei meinem 28" Bildschirm mit 90cm Abstand nur noch gerade so einzelne schwarze Pixel auf weißem Hintergrund erkennen - bei anderen Situationen mit weniger Kontrast sehe ich es einfach nicht mehr. Ohnehin ist das ein sehr realitätsfernes Beispiel, bei normalen Inhalten hat man solche Situationen ja nicht.

Ein größerer Bildschirm wäre vielleicht ein Grund für eine höhere Auflösung, um die ppi beizubehalten. Allerdings hätte ich das Bild dann nicht mehr bequem im Blick, würde also vermutlich einen größeren Sitzabstand wählen. Damit würde 4k wieder reichen. Diese Auflösung scheint mir ein Sweetspot für einen Bildschirm sein, der blickfeldfüllend (also ideal für Filme und Spiele) eingesetzt werden soll. Vielleicht wäre 2880p noch eine Option, damit ich wirklich unter keinen Umständen mehr einen einzelnen Pixel erkennen kann. Dafür aber wieder die doppelte Pixelmenge in Spielen berechnen zu müssen halte ich für fragwürdig.
Tendenziell erhöhe ich bei meinem 28"-Monitor den Abstand beim Film schauen oder zocken mit Controller sogar noch leicht auf ca. 1,1m, was auch nochmal gegen den Bedarf an einer höheren Auflösung spricht.
 
Nvidia wird sich garantiert nicht selbst ein Bein stellen. Vielleicht kommt DLSS 3 in 1-2 Jahren für Ampere, ich glaube aber nicht dran.

Die Latenz steigt nicht im Vergleich nativ vs DLSS 3. Ja, die Zwischen-Frames erhöhen die Latenz, dafür ist bei DLSS 3 immer Nvidia Reflex dabei was die Latenz wieder ausgleicht. Man gewinnt als durch die Zwischen-Frames keine Latenz, verliert aber auch keine. Bei Spielen die sowieso Nvidia Reflex unterstützen hat man die beste Latenz mit DLSS 2.

Das stimmt so leider nicht pauschal.
Siehe Input Lag Video von Hardware Unboxed.
Es gibt durchaus Spiele, die mit einem In-Game Frame Limit deutlich niedrigere Input Lags haben, als mit Nvidia Reflex, oder dem AMD Pendant.
 
Zurück