8K vs. 4K: Wer erkennt im Gaming den Unterschied?

Höhere DPI bedeutet in Bewegung v.a. ein ruhigeres Bild, da weniger Kantenflimmern.
Und viele moderne Entwickler sind leider zu inkompetent um ordentliches AA zu implementieren und benutzen nur diese mittelmäßigen TAA und co. Augenwischereien. Zudem ist Supersampling immer wieder ein bisschen hakelig, wenn es das Spiel/die Engine nicht nativ unterstützt, was leider auch kein Standard ist.

Insofern ist höhere Auflösung immer zu begrüßen, so lange zu höherer DPI führt.
 
Wurde in dem Video 4K auf einem 8K Monitor gespielt?
Das ist nicht vergleichbar mit 4K auf einem 4K Monitor.
 
Und auch nicht vergleichbar mit 8k berechnet und auf einem 4k Monitor ausgegeben. Ich behaupte, das den Unterschied dann mal keiner mehr merkt.
Ja, dann hat man auch einen Vergleich, was Effizienz angeht, weil beides (nahezu, die Unterscheide sind irrelevant) die gleiche Performance benötigt.

Allerdings ist daran unschön, dass das 8K-Bild dann gar kein SuperSampling mehr zugrunde liegt. Meine Methodik sieht daher wie folgt aus:
Ich bin mir sicher, selbst in HP2 (HarryPotterUndDieKammerDesSchreckens, von 2002, UnrealEngine 1) 2160p+32xSSAA von 4320p+8xSSAA auf gleicher Diagonale sicher unterscheiden zu können. Beides braucht gleich viel Performance (...)
Vorteil an dem Beispiel im Speziellen ist, dass es kein LOD nutzt und somit dieses nicht zur Verfälschung der Wahrnehmung beiträgt. Und Retrogaming wird für 8K (genau, wie es bei 4K der Fall war) ohnehin erst einmal der Haupteinsatzzweck im Gaming sein. (außerhalb des Gaming hat es ohnehin sehr viel Anwendungsbezug vom ersten Tag an --- ich sag nur Vektorgrafiken generell, neben Design insbesondere auch in MultiPageWordProcessing und Programmierung.
 
Als ich mir mein neues PC-Setup im März 2020 zusammenstellte, entschied ich mich sowohl für einen 32" 4k Monitor (rechte Seite) als auch für einen 24" 1080p 240 Hz Monitor (links). Ursprünglich war angedacht, den 240 Hz als Primärmonitor zu verwenden, da ich zuvor mit 144 Hz unterwegs war und mir nicht vorstellen konnte, wieder einen Schritt zurück zu 60 Hz zu machen. Denkste. Im direkten Vergleich mit 4k sind die 1080p im Desktopbetrieb noch unerträglicher als der Unterschied zwischen 60 und 240 Hz.
Trotzdem sind im Spiel 1080p noch vollkommen ok. Gerade Rennspiele und Shooter zocke ich bevorzugt auf dem 240 Hz Monitor. Da mein 4k Monitor über HDMI nur 30 Hz unterstützt, zocke ich dort mit meiner PS5 nur auf 1080p. Ist natürlich nicht so hübsch wie 4k, ist aber immer noch hübsch genug, dass ich während des Zockens völlig vergesse, dass ich mit 1080p unterwegs bin.

Trotzdem: Ich erinnere mich noch an 2005, als ich sagte, mehr als 1024x768 mit 2xAA brauche ich nicht.
Gestern, als ich an meinem 32" 4k Monitor zockte, dachte ich mir "Ich kann noch Pixel erkennen, da geht noch was".
 
Für den Vergleich, ob ein Monitor 8k braucht, oder nicht reicht erstmal auch mein Beispiel.

Dein Ansatz ist danach aber auch sehr interessant.

Wir reden jetzt nicht von einem 2m Fernseher, von dem man nur 1m entfernt sitzt.
Ja, dann hat man auch einen Vergleich, was Effizienz angeht, weil beides (nahezu, die Unterscheide sind irrelevant) die gleiche Performance benötigt.

Allerdings ist daran unschön, dass das 8K-Bild dann gar kein SuperSampling mehr zugrunde liegt. Meine Methodik sieht daher wie folgt aus:

Vorteil an dem Beispiel im Speziellen ist, dass es kein LOD nutzt und somit dieses nicht zur Verfälschung der Wahrnehmung beiträgt. Und Retrogaming wird für 8K (genau, wie es bei 4K der Fall war) ohnehin erst einmal der Haupteinsatzzweck im Gaming sein. (außerhalb des Gaming hat es ohnehin sehr viel Anwendungsbezug vom ersten Tag an --- ich sag nur Vektorgrafiken generell, neben Design insbesondere auch in MultiPageWordProcessing und Programmierung.
Für den Vergleich, ob ein Monitor 8k braucht, oder nicht reicht erstmal auch mein Beispiel.

Dein Ansatz ist danach aber auch sehr interessant.

Wir reden jetzt nicht von einem 2m Fernseher, von dem man nur 1m entfernt sitzt.
Als ich mir mein neues PC-Setup im März 2020 zusammenstellte, entschied ich mich sowohl für einen 32" 4k Monitor (rechte Seite) als auch für einen 24" 1080p 240 Hz Monitor (links). Ursprünglich war angedacht, den 240 Hz als Primärmonitor zu verwenden, da ich zuvor mit 144 Hz unterwegs war und mir nicht vorstellen konnte, wieder einen Schritt zurück zu 60 Hz zu machen. Denkste. Im direkten Vergleich mit 4k sind die 1080p im Desktopbetrieb noch unerträglicher als der Unterschied zwischen 60 und 240 Hz.
Trotzdem sind im Spiel 1080p noch vollkommen ok. Gerade Rennspiele und Shooter zocke ich bevorzugt auf dem 240 Hz Monitor. Da mein 4k Monitor über HDMI nur 30 Hz unterstützt, zocke ich dort mit meiner PS5 nur auf 1080p. Ist natürlich nicht so hübsch wie 4k, ist aber immer noch hübsch genug, dass ich während des Zockens völlig vergesse, dass ich mit 1080p unterwegs bin.

Trotzdem: Ich erinnere mich noch an 2005, als ich sagte, mehr als 1024x768 mit 2xAA brauche ich nicht.
Gestern, als ich an meinem 32" 4k Monitor zockte, dachte ich mir "Ich kann noch Pixel erkennen, da geht noch was".

Dann rechne mal in 8k und lass dir das auf deinem 4k Monitor anzeigen.
 
selbst bei 4K braucht man noch Kantenglättung ala TAA, sonst flimmert alles wie Hölle
Sehe ich ähnlich. Wenn man in der favorisierten Auflösung keinen Vorteil von Kantenglättung mehr erkennt, scheint die Auflösung bereits zu hoch zu sein.

Da wäre es sinnvoller, eine Auflösungsstufe niedriger zu fahren, die Kantenglättung einzuschalten und sich an den höheren fps zu erfreuen (oder Strom zu sparen durch fps-Limiter). Alternativ DLSS / FSR.
 
Uahh... TAA das "Grauen" der Bildqualität... :-S

Wird echt Zeit, dass da mal wieder ne handfeste AA Methode erfunden wird, die auch mit dem ganzen Shader-Gedöns klar kommt...
 
Was für eine unglaublich bizarre Kombination.
In erster Linie wirkt sie auf mich so bizarr, weil es doch einfacher sein sollte, den 32-Zoll-Monitor-4K-60hz-Monitor durch einen 27-Zoll-120hz-Monitor zu ersetzen und diesen dafür näher heranzuholen.
Damit ein 27-Zöller und ein 32-Zöller effektiv gleich groß wirken, musst du den 27-Zöller 5/32 (15,625%) näher an dich heranholen.
Das wirkt für mich zumindest wie der geringere Abstrich...

Kann mir bei FHD-240er-Monitor auch durchaus vorstellen, dass es irgendwo im eSport nicht erlaubt ist, mehr als 1080p zu nutzen.
 
8K als Trend finde ich persönloch(!) zwar wenig zielführend, aber für den Markt finde ich deshalb es super, weil das heißt 4 K Hardware wird günstiger.
Wenn es irgendwann kommt, dass Spiele richtung 8K optimiert werden, kriegt msn die Grafikkarten die dasselbe Spiel "nur" in 4K darstellen können eohl günstig.
Monitore sowieso.

Ich bin ja jemand, der benutzt Dinge bis sie kaputt sind, weshalb ich seit über 10 Jahren einen Samsung Syncmaster P2770H habe, also einen 27 Zoll "Gaming" Monitor in FHD.

Aber ein helleres, farbkräftigeres Display mit höherer Auflösung und vor sllem endlich mahl hohen Herzzahlen wär schon cool. 4K ist Pflicht, als vielfaches von FHD kann ich immer noch "zurückschalten" falls die GPU es sonst nicht packen sollte. Aber irgendwie sind die Entwicklungen am Bildschirmmarkt unbefriedigend:
Die einen bieten ordentliches HDR, 10 Bit.
Die anderen hohe Bildfrequenz
die nächsten hohe Schwarzwerte
wieder andere gute Reaktionszeiten
... Farbwerte
usw usf

Dass alles gemeinsam EIN Monitor alles liefert-zueinem vernünftigen Preis-darauf warte ich seit gefühlt 10 Jahren.

32 (16:9) oder eher 34(21:9) Zoll, gutes Bild, 10 Bit, HDR 1000, gute Schwarzwerte (OLED? Nanoled?), Reationszeit, 4K...
Beim Fernseher offenbar möglich, aber am Computerbildschirm..
 
mehr als 2k braucht man bei games nicht!
8k könnte ich mir nur mit spielen vorstellen wo man eine Draufsicht aus der Vogelperspektive hat mit eine 43 zoll monitor. obwohl da 4k auch völlig reichen.

alles andere ist nutzlos, da man beim spielen ständig den kopf bewegen muss und dadurch Nachteile hat.

naja irgendwie muss man ja die rtx 4000, 5000 usw. verkaufen können.
 
Euch ist aber schon allen klar dass das Bildsignal beim Fernseher von "4K" (UHD) auf 8 K durch den guten Upscaler hochgerechnet wird? Da sieht man mal wie gut der Upscaler funktioniert. Das ist auch der Sinn des 8 K Fernseher. Denn ohne den Upscaler müsste man Fernseher nativ ansteuern, denn UHD auf 75" hat nur noch eine Pixeldichte von 59 PPI. Das würde man sofort an den feinen Schriften im UI erkennen. Die maximale Bilddiagonale ist mit 100 PPI bei UHD 44" und alles unter 100 PPI ist nicht zu empfehlen. Kann man ja gerne mal testen in dem man einen 42" Monitor mit FHD ansteuert. PPI von 30. Das erkennt man sofort an den unscharfen Schriften, ich würde da Augenkrebs bekomment. Auch FHD auf einem 27" sieht nicht gut aus.

Fazit
Dank des guten Ai Upscaler ist es im gegensatz zum Monitor überhaupt nicht nötig diesen Fernseher nativ anzusteuern.
UHD wird sehr gut auf 8K hochgerechnet, u.a. zu erkennen an den feinen Schriften der UI bzw. dem Desktop. Die angeblich dicke Grafikkarte wird also gar nicht benötigt.
 
Zuletzt bearbeitet:
hab nen 4k beamer und da sieht man den unterschied zu 1080p deutlich aber selbst bei der größe weis ich nicht wie es mit 8k noch großartig besser werden soll
Echter 4k oder Pixel-Shift?

Ich habe einen mit Pixel-Shift und mir fällt es, bei Filmen, schwer einen Unterschied bei knapp 4m Sitzabstand auf 110 Zoll zu erkennen, wenn ich diesen deaktiviere/aktiviere.
Zudem geht mir das vibrierene Glas dezent auf den Keks, dass man angeblich ja so gut wie nicht hören soll :D

Soll natürlich nicht ganz an 4k rankommen aber angeblich nahe.

Bei Fernsehern und dem üblichen Abstand sehe ich daher erst recht keinen Unterschied aber es gibt ja eigentlich nur noch 4k zu kaufen.

Bei Monitoren größer 32 Zoll und dem geringen Abstand ist der Unterschied dagegen deutlich.
 
Sehr interessant! Wiederholt das bitte mal mit der Monitor Refreshrate und lasst das mal ein paar mehr Redis und Praktis testen. ^^ @PCGH_Phil
 
Fazit
Dank des guten Ai Upscaler ist es im gegensatz zum Monitor überhaupt nicht nötig diesen Fernseher nativ anzusteuern.
UHD wird sehr gut auf 8K hochgerechnet, u.a. zu erkennen an den feinen Schriften der UI bzw. dem Desktop. Die angeblich dicke Grafikkarte wird also gar nicht benötigt.

Wenn man auf Lag steht kann man das so machen, ansonsten nutzt man natürlich für niedrigste Latenzen alles nativ und ohne irgendwelche "zeitintensiven" postprocessing-TV Effekte. :-)

@4k/8k Vergleich
Das ist die beste Argumentation, warum "grundsätzlich" die Anschaffung von GPUs oberhalb von 400 € sinnlos ist, da man die Unterschiede im Spiel "nicht" sieht, sondern nur auf Screenshots, mit Lupe und im direkten Vergleich. Ich weiß nicht ob das von euch rhetorisch so beabsichtigt war. Konsequent wäre jetzt natürlich auch eine Umbenennung in PCG-midrange-H. :-D

MfG
 
mehr als 2k braucht man bei games nicht!
seh ich anders bin von 2k auf 4k und die Bildschärfe sieht man definitiv, ich will niemehr auf 2K zurück.

Alle Spiele der letzten 2 Jahre waren einfach nur wunderschön anzusehen, bei 27" und 4K einfach mal 160ppi zu haben ist geil. Bei 50-60cm Sitzabstand perfekt für mich.

Zu TAA nochmal wenn das gescheit implementiert wurde verschwindet die Unschärfe in 4K komplett und deshalb ist es die Ressourncenschonendste und beste Kantenglättung zumindest in 4K. FULLHD und WQHD Nutzer haben halt Pech und reden das schlecht aber in 4K ist TAA nunmal das beste.

Auf 8K upzugraden find ich auch persönlich noch zu früh nicht nur weils keine 27" 8K sondern erstmal andere Sachen wichtiger sind. Hier sind aber die Monitorhersteller gefragt die seit weiß wielang nixmehr auf die Reihe kriegen.
Ja ich rede von gescheitem HDR bei einem Monitor, das kann nicht wahr sein das es im Jahre 2021 immernoch keine gescheiten HDR Monitore gibt. Wielange gibts schon HDR ? Selbst Fernseher sind da meilenweit überlegen das kanns nicht sein.

Hier sollte PCGH mal den Panelherstellern und Co mal unangenehme Fragen stellen wieso sich im Monitorbereich seit 10 Jahren nix tut nur sehr schleppend.
 
Zurück