Geforce RTX 3090: 8K und 30 Fps in The Witcher 3, Horizon Zero Dawn und mehr

Ich weiß was die Enthusiasten jetzt hier im Forum wieder sagen werde. Och nööö, der Dell hat nur 60Hz, das ist ja wie Konsole, der Oled brennt ein, der IPS hat keinen Kontrast und der VA verschmiert bei Dunkelgrau.

Abgesehen von der 3090, es gibt da noch ganz andere Baustellen.

Es ist eben immer das gleiche Spiel: es kommen teure Monitore raus, die werden billiger und irgendwann sind sie auch für die breite Masse interessant. War bei 4K so und wird hier nicht anders sein.

Bisher gab es einfach Probleme, dass es keine Anschlüsse gab, mit denen man so einen Monitor mit einem Kabel anschließen konnte. Das hat sich mit HDMI 2.1 und wohl bald auch DP 2.0 geändert.

Mit meiner alten GTX 670 kann man auch in 4K zocken, nur waren damals die Monitore rar und sehr teuer, das hat sich heute geändert.
 
in Youtube kann man im vergleich gut sehen wie 4K Spiele in 30 und 60FPS aussehen.
Auf Dauer gibt das Geruckel doch Augenkrebs oder einfach "nur" einen epileptischen Anfall, das kann man doch nicht wirklich Spielbar nennen.
Für mich ist Spielen deutlich unter 60Hz weder zeitgemäß noch angenehm und sollte auch nicht mehr Spielbar genannt werden.
Aufgrund von fehlenden vergleich, bin ich mir auch nicht sicher ob 8K auf 32" überhaupt sinn machen, selbst wenn bei der Größe 30 FPS weniger ins Gewicht fallen.
 
Sehe ich auch so.

Ich schaue schon seit langer Zeit wie verrückt nach Monitoren, aber entweder ist der Preis absolut inakzeptabel oder die Technik. Irgendwas ist jedenfalls immer, wirklich traurig das Ganze.

32", 4k, 144Hz klingt gut, mit "echtem" HDR wäre ein Traum.
Wobei ich persönlich kann nicht mehr weg von 21:9, geht einfach nicht, es würde was fehlen.
Stimmt 21:9 wäre nice, aber da gibts ja was 37,5" 21:10 QHD+ von LG.
Mit 111ppi noch OK, aber für 1400€ will ich einen OLED, für 700€ wäre ein sehr guter IPS noch ok
 
Auf Dauer gibt das Geruckel doch Augenkrebs oder einfach "nur" einen epileptischen Anfall, das kann man doch nicht wirklich Spielbar nennen.
Für mich ist Spielen deutlich unter 60Hz weder zeitgemäß noch angenehm und sollte auch nicht mehr Spielbar genannt werden.

ca. 200 Mio Konsolenzocker sehen das anders...
 
8K ist mir zu blurry, ich brauche 16K!

32K wäre noch besser!

Mit min. 60 fps!!! Wann kommt das, hmm???

Wenn ich 30 fps will, hole ich mir eine Konsole! Die Auflösung ist dann auch egal, Dia-Shows sind öde!
 
Ich finde die Entwicklung gut.
Höhere Auflösungen bringen den Vorteil keine Kantenglättung nutzen zu müssen, die meist nur Nachteile haben.
Und mit VSR und DSR muss man nicht mal ein passenden Monitor haben.
Wenn das so weiter geht, haben wird in 5 Jahren problemlos 4K in allen PC Spielen und VR Gaming hat die passende Leistung für ordentliche Optik. :devil:
 
Was ich gut finde ist dass ich niemals und nie 4K gamingmonitor haben werde. Rtx 3060ti wird für fhd ausreichend. Rtx 4060ti wird für fhd zu OP
Rtx 3090 ist für 8K mehr brauchbar als gtx 989ti damals für 4K
 
Was ich gut finde ist dass ich niemals und nie 4K gamingmonitor haben werde.

Vorsicht mit solchen Aussagen.

Der letzte 3dfx Anhänger, der sich geschworen hat nie etwas anderes als eine Voodookarte zu verwenden, bereut das bis heute bitter und muß sich mit seiner Voodoo 6 6000 durchs Leben schlagen...
 
Na ob man da Nvidia jetzt große Vorwürfe machen kann... Die Karten von AMD werden ja auch keine Kostverächter werden, zumindest gehen die Gerüchte da sehr auseinander. Und was CPUs angeht, haben die seit mehr als 10 Jahren, durchweg immer weniger als große GPU's verheizt.

Aber auch 10900K oder Threadripper sind schon lange keine Kostverächter mehr. Die TDP Angaben sind da schon geradezu lächerlich im Verhältnis zum möglichen "Realverbrauch"...
Ist mir klar, dennoch läuft der 16-Kerner bei Crysis 3 weitestgehens unter 100W...
Während die GPU gerne mal 380+ Watt nimmt. Ist mir halt aufgefallen...
Peaks natürlich nicht mitgerechnet, da man die ja nicht so einfach auslesen kann.
 
Ist mir klar, dennoch läuft der 16-Kerner bei Crysis 3 weitestgehens unter 100W...
Während die GPU gerne mal 380+ Watt nimmt. Ist mir halt aufgefallen...
Peaks natürlich nicht mitgerechnet, da man die ja nicht so einfach auslesen kann.
Muss einen kaum wundern, ne ultra-high-end GPU auf Steroiden gegen ne' CPU...

Die GPU beakkert halt die Hauptlast. Sieht man sehr oft bei 4K videos auf YT mit 3090ern. Die GPU am Anschlag und die CPU pennt bei ner Auslastung von ~20%...
Bei nem' CPU lastigen Spiel sieht's vermutlich etwas anders aus.

Aber große CPUs verballern heute auch gerne mal ~300W+. Die gibt's nur nicht im Consumerbereich...
(Außer vielleicht n' 10900K mit allcore turbo auf 5,x Ghz...) :schief:

Zudem kommt noch die Effiziens und wo der Sweetspot der jeweiligen HW liegt.

Dass sich die 3080 und 3090 anscheinend auch gut undervolten lassen hat man ja auch schon gesehen...
(Ist bei der 3090 auch bitter nötig - OC bei Standardspannung ist laut Igor bei der nicht ganz "ungefährlich"
zumindest für das Mainboard...)
 
Ist das eine 100% technische Aussage oder mehr so in die Richtung bei 240hz sieht man quasi gar kein tearing mehr? Für mich als nicht AA User wäre das bei 8k ein großer Pluspunkt. Mal testen, ob ich das mit DSR hinbekomme.
Eher eine subjektive Meinung.
In 2k braucht man AA auf Anschlag
In 4k geringfügig.
Also MÜSSTE in 8k kein AA mehr notwendig sein, so habe ich das gemeint.

Vielleicht liegt das auch an der Monitor-Technik. Quadratische Pixel verursachen eben Treppeneffekte, je niedriger die Auflösung um so stärker der Effekt.
 
Zurück