Wofür soll man sich dann eine RTX 4090 kaufen? Diejenigen, die sich eine RTX 4090 kaufen, haben meist andere Ansprüche, als Leute, die auf einem Full HD 60 Monitor zocken.
8K ist dennoch absoluter Schwachsinn im Jahre 2022 und wird es auch noch einige Jahre bleiben. Was möchte man denn dann spielen, wenn man nicht bei 60 FPS oder weniger rumgurken möchte? Irgendwelche Games bis ~2012 vielleicht? Da sind die Texturen dann oft so schlecht aufgelöst, als dass es sich einfach ohne zeitaufwendiges Modden nicht lohnt das überhaupt in Erwägung zu ziehen. Ich glaube, viele haben noch nicht ganz verstanden, was 8K eigentlich bedeutet (Stichwort Pixeldichte im Vergleich zu UHD) und was da für eine immense Rechenleistung gefordert wird.
Der Sprung von UHD auf 8K steht in keinem Kosten-Nutzen-Verhältnis mehr im Vergleich zu WQHD auf UHD, was die Steigerung der Bildqualität anbelangt (vielleicht maximal auf einem 80'' und größer Fernseher, wenn man nah genug davor sitzt, weil die Pixeldichte dann langsam zu gering wird). Selbst mit der 4090 kann man ja nicht einmal in jedem Spiel UHD nativ ausfahren, insbesondere, wenn man auch noch gewisse Ansprüche an eine annehmbare Bildrate (bei mir ~120 FPS in Singleplayerspielen) stellt. Klar könnte man auch die Regler entsprechend bedienen, aber wenn man dann so argumentiert, dass man lieber in 8K mit mittleren Details ohne Raytracing als in UHD mit maximalen Details spielt, hat man sowieso den Schuss nicht mehr gehört.
Bei 8K sind wir noch laaaaange nicht. Analog dazu sind ja auch die Preise für solche Displays (hauptsächlich TVs) angesetzt. Selbst wenn die nächste Grafikkartengeneration wieder doppelt so stark sein wird, wie der Sprung von der Letzten zur Jetzigen, dann reicht das immer noch nicht aus um 8K adäquat zu befeuern!
Und noch einmal als ein anderes Beispiel: Ob ich (wenn ich denn die Rechenleistung dafür zur Verfügung habe), auf meinem UHD-Monitor/Fernseher DL-DSR x2,25 nutze und dann quasi downgesampletes 6K habe oder ob ich (wenn ich zu viel Geld habe) mir ein 8K-Display kaufe und dann DLSS/FSR Quality einschalten muss, weil die Rechenleistung vielleicht noch für 6K, aber nicht mehr für 8K reicht, dann verspreche ich Euch: Ihr werdet keinen Unterschied sehen.
Für 4K mit max Settings und high FPS? Keine Ahnung, hab mir auch keine 3090 geholt sondern das kleinere Modell, ich brauche kein Flaggschiff da ich auf WQHD unterwegs bin.
Da hast Du im Prinzip auch echt alles richtig gemacht. Die 3080 liefert in etwa die Bildraten in WQHD, die die 4090 jetzt in UHD liefert. Entsprechend ist dann auch der VRAM dimensioniert. Ich kann das so bestätigen, weil ich die Karte auch im Rechner hatte. Da wirst Du bis zur nächsten GPU-Generation auch noch gut mit fahren, wenn Du bei 1440p bleibst.
Also ist für mich weiterhin der Sinn hinter DP 2.1 oder 8K 165hz fraglich, vor allem als eins der Hauptargumente für den Kauf einer RDNA3 Karte.
Exakt. Nur weil der Standard das unterstützt, heißt das nicht, dass die nun vorhandene Hardware diesen auch vernünftig nutzen kann. Ich habe jetzt nicht nach Quellen gegoogled, aber ich kann mir gut vorstellen, dass die Hersteller der ersten GPU-Generation, die DP 1.4 damals geboten hat, auch mit dem maximal möglichen geworben haben, was dieser Standard konnte/kann. Diese GPU haben dann aber bestimmt die wenigsten noch in ihrem Gaming-PC, wenn sie sie damals als "Enthuasiast" gekauft haben.
Die Anschlüsse, die Nvidia mit der 4000er Generation bietet, sind angemessen. Das ist einfach ein Fakt. Das was AMD da auf der Bühne abgezogen hat, war einfach nur peinlich. Sie sollen sich auf ihre Hardware konzentrieren anstatt irgendwelche vermeintlich wunden Punkte beim "Konkurrenten" zu suchen.