8K vs. 4K: Wer erkennt im Gaming den Unterschied?

Nein, hatte ich aus einem Forum.

Hier in diesem Review sind aber auch verschiedene Messungen zu verschiedenen Auflösungen/Einstellungen vorhanden, die ähnliche Werte aufweisen.

Ist jetzt aber glaube ich etwas offtopic ^^


Ok da steht aber auch:


"We updated the '4k @ 60Hz With Interpolation' input lag because the original results were incorrect. The review has been updated"



4k @ 60Hz With Interpolation 15.5 ms

"When you want to play video games with motion interpolation (Soap Opera Effect) enabled.."



4k @ 60Hz Outside Game Mode 63.0 ms

"For gaming and PC use, while retaining access to all features of the TV."


Würde bedeuten es sind nur 15,5 ms, was sich auch mit meiner Erfahrung decken würde. Denn 63 ms würde sich definitiv bemerkbar machen.
 
4k @ 60Hz With Interpolation 15.5 ms

"When you want to play video games with motion interpolation (Soap Opera Effect) enabled.."
Das ist ja nur mit Zwischenbildberechnung.
Also kein up scaling etc.

Irgendwas ist da jedenfalls merkwürdig. Die über 60ms sollte man eigentlich wirklich wahrnehmen.
 
Zuletzt bearbeitet:
kann man die wahrnehmung Trainieren um auch höhere Pixeldichte festzustellen oder kann man nur die Konzentration trainieren. Denn egal was ich ja mache ich merke einfach keinen so wirklich großen Unterschied.

Ich habe es nur als Bild als Screenshot als direkter vergleiche die Unterschiede feststellen können und weil ich ja genau wusste im spiel auf welchen Punkt ich schaue muss um einen unterschied festzustellen. Dann stehen bleiben im spiel,die Auflösung in einem Spiel gestellt hin gestarrt und dann die Auflösung beim Spiel geändert und dann wieder hin gestarrt.Nur aus 40 cm Entfernung habe ich das gemacht. Kaum sah ich im normalen Sitzabstand dann schon sah ich da kaum noch einen Unterschied.
Ich frage mich wie ihr das macht das ihr trotz des normalen Sitzabstands hier nen unterschied feststellen konntet.Habt ihr etwa alle Adler Augen oder wie?
Unter normalen sitzabstand war also weder in 1080p,1440p noch in 4k einen Unterschied festzustellen. Liegt das echt an der Visuellen Fähigkeit das wer solche nicht so gut hat es dann nicht so wahrnimmt auch wenn dieser sich so sehr anstrengt und total fixiert drauf achtet es dennoch nicht merkt?
 
Also ich merke das nur an der PPI, Pixeldichte. Auf einen 15" bei einer Pixeldichte von über 300 würde ich keinen Unterschied zwischen FHD und UHD merken. Aber schaue mal FHD auf einen 32" oder 40" Monitor an, da sieht man das sofort. Vor allem die Schriften werden dann so pixelig, dass das Auge das als störende Unschärfe wahrnimmt, wo ich dann nach wenigen Sekunden "Augenkrebs" bekomme.

Entscheidend ist also die

- Diagonale
- Auflösung
- Sitzabstand

Einfach mal einen Rechner nehmen. 100 PPI ist ein guter Richtwert für eine Verwendung als Monitor, für Filme kann das deutlich geringer sein.
Das war und ist auch immer das Problem gewesen warum ein Monitor immer nativ ansteuern muss.
 
Sehe ich im Grunde genauso. Aber über Preise kann man sich lang und viel unterhalten...

Gutes Bespiel: Es ist noch gar nicht so lange her, da wäre niemand auf dei Idee gekommen 1500€ für einen Monitor auszugeben, auf der anderen Seite ist das Geschrei über "teure" CPU's und GPU's immer groß...

Alleine was "mittelklasse" Mainboards heute kosten können ist absurd... 1000€... 2000€ alles keine Phantasie mehr.

Zum Vergleich mein File- und Backupserver: Da kosten beide(!) CPU's und das Mainboard zusammen weniger! :ugly:

Sorry aber Vorsicht.
Hatte mir ~1999 den Sony F520 (21er mit 2048 *1536 Auflösung) für 3000DM gekauft.
Hatte -als der defekt war- über 10 Jahre gedauert bis ich am PC was gleichwertiges / besseres hatte.
Bei Dingen die länger als "eine" Generation halten sehe ich es als vernünftig an mehr Geld zu investieren damit man länger was von hat.
Habe daher neben dem TFT auch ein guten Tower, ein 80+ Titanium NT, 1A Maus & Tastatur.

Bei einigen Dingen macht das eigendlich jeder so.
Kenne niemand der jedesmal auch den Tower austauscht wenn da eine neue CPU und oder GPU kommt. :ugly:
 
Stimmt da hast du recht. Ich habe einen WQHD und zocke überwiegend auf Full HD. Habe auch ein Spiel wo man als Splittscreen auf einem Bildschirm zusammen zockt. Ihm störte sofort die Auflösung weil alles viel zu klein.Da stellte ich dann auch dort auf Full HD um. Und ich habe sogar ein Spiel da zocke ich sogar nur in 720p weil ich so viel schneller die Gegner sehen kann. Tya es sieht wohl so aus als ob sich auch WQHD nicht für mich gelohnt hat bisher. Ich muss mir da wohl die Wahrheit zugestehen denn sonst würde man sich ja selbst belügen oder etwas vormachen.
Und bei Filmen und Serien habe ich nur höchstens Full HD zum anschauen.
In meinem Fall hat es sich zwar nicht gelohnt aber es gibt bestimmt welche bei denen es sich sher wohl gelohnt hat.Einfach weil alles gestimmt hatte. Mir schrieben auch welche in ner Whatsapp Gruppe das die beste Auflösung ja eh beim 24 " eher Full HD ist und nicht in größer weil dann das ganze sonst nicht mehr zusammen passen würde. Ich kriege den Bildschirm sehr schnell los,das ist keine Frage. Nen Full HD 24 " kriege ich auch sehr schnell gekauft. Kann mir es ja noch mal durch den Kopf gehen lassen. Und ja Nativ ist freilich immer besser als herunterskaliertes weil immer schärfer als sonst was.Das habe ich auch gelernt,wenn auch auf die harte Tour.
 
mehr als 2k braucht man bei games nicht!
8k könnte ich mir nur mit spielen vorstellen wo man eine Draufsicht aus der Vogelperspektive hat mit eine 43 zoll monitor. obwohl da 4k auch völlig reichen.

alles andere ist nutzlos, da man beim spielen ständig den kopf bewegen muss und dadurch Nachteile hat.

naja irgendwie muss man ja die rtx 4000, 5000 usw. verkaufen können.

äh nein.
jemand in diesem Thread hatte das gepostet =>
Das Iphone hatte schon 165 ppi was auch einem 27er mit mit 4K wäre.
Hatte mal gelesen das man ab 250 ppi keine Unterschiede erkennen kann; laut google sind es nun 300 ppi.
Das wäre 4K bei einem 15 Zöller oder 8K bei einem 29er.
Wüste auch nicht warum man beim spielen ständig den kopf bewegen muss nur weil man eine höherer Aufklösung hat :ugly: :ka:

Die RTX 4000 bzw. RTX 5000 Serie wird wie jede neue Serie durch neue -mehr oder weniger- coole Features verkaufen. Das RT wurde erst mit 2000 Serie eingeführt und könnte bei der 5000 Serie richtig gut funktionieren => also Zeit für was neues.
 
Das ist ja nur mit Zwischenbildberechnung.
Also kein up scaling etc.

Irgendwas ist da jedenfalls merkwürdig. Die über 60ms sollte man eigentlich wirklich wahrnehmen.

Eben, ich habe übrigens ca. 40h Spielstunden bezüglich Ghost Recon auf dem Monitor und nur ca. 8h auf dem Fernseher. Ghost Recon ist zwar nicht der schnellste Wettkampfshooter aber 60 ms zzgl. 16 ms Input Lag der Maus etc. würde ich auf jeden fall merken, das wären in Summe dann bestimmt gute 100 ms.
 
kann man die wahrnehmung Trainieren um auch höhere Pixeldichte festzustellen oder kann man nur die Konzentration trainieren. Denn egal was ich ja mache ich merke einfach keinen so wirklich großen Unterschied.

Einfach mal auf Zäune, Treppen usw. schauen.
Bei Arma2 / WoWarships habe ich selbst bei 5K (27er) noch kein perfektes Bild.
Ob das nun "keinen so wirklich großen Unterschied" ist muss natürlich jeder für sich entscheiden;
mich nervt es aber.
Zum Glück gibt es GSync TFTs. :ugly:
 
seh ich anders bin von 2k auf 4k und die Bildschärfe sieht man definitiv, ich will niemehr auf 2K zurück.

Alle Spiele der letzten 2 Jahre waren einfach nur wunderschön anzusehen, bei 27" und 4K einfach mal 160ppi zu haben ist geil. Bei 50-60cm Sitzabstand perfekt für mich.

Zu TAA nochmal wenn das gescheit implementiert wurde verschwindet die Unschärfe in 4K komplett und deshalb ist es die Ressourncenschonendste und beste Kantenglättung zumindest in 4K. FULLHD und WQHD Nutzer haben halt Pech und reden das schlecht aber in 4K ist TAA nunmal das beste.

Auf 8K upzugraden find ich auch persönlich noch zu früh nicht nur weils keine 27" 8K sondern erstmal andere Sachen wichtiger sind. Hier sind aber die Monitorhersteller gefragt die seit weiß wielang nixmehr auf die Reihe kriegen.
Ja ich rede von gescheitem HDR bei einem Monitor, das kann nicht wahr sein das es im Jahre 2021 immernoch keine gescheiten HDR Monitore gibt. Wielange gibts schon HDR ? Selbst Fernseher sind da meilenweit überlegen das kanns nicht sein.

Hier sollte PCGH mal den Panelherstellern und Co mal unangenehme Fragen stellen wieso sich im Monitorbereich seit 10 Jahren nix tut nur sehr schleppend.

Das sagt man nur wenn man den Unterschied nicht kennt. Wenn ich meinen 4k auf 2k wegen gpu Überlastung drosseln muss, ist das ein großer und deutlich sichtbarer Unterschied. Habe einen 28" Monitor. Und je größer die Bildschirme werden je mehr Pixel braucht man. Ich möchte behaupten bei 28" sind 4k optimal. Bei größeren werden dann schon eher 5k-8k optimal. Wenn ich da an den Odyssey 9G denke, dann könnte der schon locker min 5-6k vertragen. 8k werden in Zukunft bei den großen Monitoren sicher bald Standard werden, und das zurecht. In der Höhe könnte der Odyssey noch etwas mehr haben, dann hat man bald die optimale Größe und gute Basis für 8k. Für mich die Ideale Kombi. Mehr braucht man dann vorerst wirklich nicht da dann das Sichtfeld wirklich ausgefüllt ist. Dann noch 10bit, 240hz, Ultra Details mit Raytracing bei 1ms und das Bild gleicht langsam der Realität. Die Rtx8070 ist damit dann auch ausgelastet. ;-)

äh nein.
jemand in diesem Thread hatte das gepostet =>
Das Iphone hatte schon 165 ppi was auch einem 27er mit mit 4K wäre.
Hatte mal gelesen das man ab 250 ppi keine Unterschiede erkennen kann; laut google sind es nun 300 ppi.
Das wäre 4K bei einem 15 Zöller oder 8K bei einem 29er.
Wüste auch nicht warum man beim spielen ständig den kopf bewegen muss nur weil man eine höherer Aufklösung hat :ugly: :ka:

Die RTX 4000 bzw. RTX 5000 Serie wird wie jede neue Serie durch neue -mehr oder weniger- coole Features verkaufen. Das RT wurde erst mit 2000 Serie eingeführt und könnte bei der 5000 Serie richtig gut funktionieren => also Zeit für was neues.
Bin von 4k auf 2k gewechselt und sehe überhaupt kein unterschied. jetzt habe ich einfach mehr fps beim gleichen bild.

wer das was beweisen will muss mit einer lupe ran. das menschliche auge sieht da nichst.

4k beim pc macht nur sinn bei einer großen bild diagonale. aber da bekommt man wie gesagt probleme mit dem blickwinkel.

habe videoschnitt und sämtliche grafikarbeiten am 4k gemacht und es hat nur probleme gemacht.

ui zu klein usw. inzwischen gibt es mehr und mehr programm bei den man das Ui vergrößern kann aber was soll das bringen. ist genau so wenn ich mir ein 17 zoll kaufe und denn 5 cm vor mir stelle oder ein 27 zoll den ich 20 com von mir stelle. und den 4k mit 40 zoll plus stellst du dann 1 meter von dir und vergrößerst dir dein ui um noch was lesen zu können.
 
Einfach mal auf Zäune, Treppen usw. schauen.
Bei Arma2 / WoWarships habe ich selbst bei 5K (27er) noch kein perfektes Bild.
Ob das nun "keinen so wirklich großen Unterschied" ist muss natürlich jeder für sich entscheiden;
mich nervt es aber.
Zum Glück gibt es GSync TFTs. :ugly:
Ach das Problem habe ich nicht,einfach dann beim Unsichtbare wie Zäune aktivierbare Supersampling über die Zäune legen das heißt dann: Transparent Supersampling und schwups sieht auch das Glatt aus. Das habe ich alles unter Full HD eingehabt. Bei 4k habe ich sowas aus gehabt und auch nur auf 4x SGSSA aufgewertet und nicht wie bei Full HD auf 8x SGSSAA Aufwertung. Es brachte auf jeden Fall sehr viel Bildruhe rein.
Auflösen alleine bringt also nicht immer etwas. Auf Kantenglättung wird man niemals verzichten können selbst bei 16k nicht.
Das ist der Software geschuldet. Und ja mit Full HD kommt man so dann wirklich gut zurecht. Besonders wenn man nicht die Aktuellsten Spiele hat.
Ob man auch wirklich bei einem Spiel die maximal mögliche Kantenglättung braucht oder nicht muss man ebenso selbst für sich entscheiden. Das Transparente Kantenglättung kostet jedenfalls nicht so viel Rechenleistung. Da kostet eben die Auflösung weit mehr. Und klar kostet Auflösung Grafikkartenspeicher. Besonders in Verbindung mit Kantenglättung. Je höher also die Auflösung mit Kantenglättung desto höher der Verbrauch und desto Anfordernder ist es dann für die GPU.
Wenn du es auf ohne Kantenglättung vergleichst dann hast du freilich recht. Aber ich kann es niemals ohne Kantenglättung spielen. Die Spiele sind eben da nicht so gut. Wo ich das verglichen hatte war damals Saint Row 3 und 4. Da gab es jede Menge Zäune,Laternen Masten oder Strommasten mit Stromkabeln usw. Da sah man sofort was Sache war. Und da habe ich alles ausprobiert. Höhere Auflösung gegen niedrige. Dann schrittweise die Kantenglättung erhöht und dann verglichen.
Wie 16xS (2x2 OGSSAA)
32xS(4x4 OGSSAA)
Dann mit nur Transparanter Supersampling sah es dann schon um einiges besser aus.
Dann mit aufwertung von SGSSAA ,wo ich dann aus 30 cm Entfernung bei 4k zwischen 4 und 8 SGSSAA keinen Unterschied mehr festgestellt hatte. Aus 30 cm entfernung beim Full HD Bildschirm sah ich auch noch bei 4vs 8 auch noch einen Unterschied. Aus 90 cm Entfernung dann nicht mehr.

Was ich damit sagen will ist,es kommt wirklich auf das ganze drauf an. Hier scheine ich also echt glück zu haben das ich aus der Entfernung bei beiden 24 " 4k vs Full HD dann aus 90 cm Sitzabstand dann wirklich kaum noch einen Unterschied feststellen konnte. Ich habe es nicht nur mit Bild machen und direkt verglichen versucht sondern auch ohne Bewegung direkt im Spiel mit den jeweiligen Auflösung gegen getestet. Das ist ja der Glück wenn man mehrere Pcs hat.Da kann man sowas schon mal direkt vergleichen mit dem Selben Game und der selben Stelle in dem man bei dem gleichen Spiel nach dem man rein kommen gleich die Vergleiche machen kann.So kann man auch wirklich 1 zu 1 gegen vergleichen. Ich habe es gemacht um wirklich sicher zu sein.

Ich weis nicht ob du so einen großen Vergleichen bei dir auch sowas gemacht hast. Ich habe jedenfalls stunden lang getestet. Ich bin da nicht zimperlich. Hätte sogar Bildschirm Tester werden können weil ich dann auch die Helligkeit getestet hatte und so. Ich bin was das angeht wirklich übertrieben. Ich bin immer der ansicht gewesen da würde man einen richtigen Unterschied feststellen. Dem ist aber nicht so. Wenn man es richtig anstellt dann sieht man den echt nicht mehr. Man kann also sogar den Vorteil von höherer Auflösung so dann auch wieder zunichte machen.
 
Sorry aber Vorsicht.
Hatte mir ~1999 den Sony F520 (21er mit 2048 *1536 Auflösung) für 3000DM gekauft.
Hatte -als der defekt war- über 10 Jahre gedauert bis ich am PC was gleichwertiges / besseres hatte.
Bei Dingen die länger als "eine" Generation halten sehe ich es als vernünftig an mehr Geld zu investieren damit man länger was von hat.
Habe daher neben dem TFT auch ein guten Tower, ein 80+ Titanium NT, 1A Maus & Tastatur.

Bei einigen Dingen macht das eigendlich jeder so.
Kenne niemand der jedesmal auch den Tower austauscht wenn da eine neue CPU und oder GPU kommt. :ugly:
Ich wollte damit eigentlich betonen, dass "die Masse" sich so etwas vor einigen Jahren nicht gekauft hätte.
Kann mich jedenfalls nicht dran erinnern, dass es vor gut ~10-15 Jahren großartig viele
1000€ Consumer Monitore gab. Da musste man sich dann schon im Semi-Profi Bereich umschauen...

Aber Ausnahmen gab und gibt es natürlich immer. Seit dem aber Gaming immer mehr Salongfahig wird,
steigen die Preise für einige Gaming bezogene Komponenten drastisch an... Und da rede ich nicht unbedingt nur von
Ultra High-End GPU's. Bei denen gehts ja meist noch, aber OC-Mainboards, Gaming Monitore ect. haben deftig
angezogen. Tja der Markt ist wohl da...

Ist ja nicht so als hätte ich was gegen Hochwertige Hardware, eher im Gegenteil.

Mal so als Beispiel: ASUS OC-Mainboards der Rampage Reihe (Intel HEDT Plattformen)
Rampage II ExtremeRampage III ExtremeRampage IV ExtremeRampage V ExtremeRampage VI Extreme
~300€ (2008)~300€ (2010)~340€ (2012)~400€ (2014)~600€ (2017)

Von den ASUS Monster-OC-Boards a la Domius Exteme will ich gar nicht anfangen,
aber da kann man die ~2100€ fürs Board noch "irgendwie" rechtfertigen.

Und heute gibt es tatsächlich 1000€+ Mainboards für Mittelklasse Prozessoren... :haeh:
 
Zuletzt bearbeitet:
Ich erkenne beim Gamen auf einem 27"-Monitor schon zwischen WQHD und 4K keinen Unterschied - außer in der Geldtasche.

4K-Gaming rentiert sich nur, wenn man auf 65"-UHD-Fernseher zocken möchte. 8K-Gaming rentiert sich überhaupt nicht - würde ich mir niemals kaufen.
 
Ich zocke noch in FHD 24". WQHD und 4K Gaming ist mir zu teuer. Erstmal ein guter Monitor und dann braucht man ja auch eine starke Grafikkarte. Aber wenn 8K kommt und marktreif wird, kann man wohl davon ausgehen das WQHD und 4K irgendwann günstiger werden. Vielleicht hole ich mir dann 4K in ein paar Jahren. Dann sind bestimmt auch schon die Mittelklasse-Grafikkarten dafür geeignet
 
Bin von 4k auf 2k gewechselt und sehe überhaupt kein unterschied. jetzt habe ich einfach mehr fps beim gleichen bild.

wer das was beweisen will muss mit einer lupe ran. das menschliche auge sieht da nichst.

...
wat ... beim gleichen Bild? Ich weiß ja nicht... das Aliasing alleine... :D
 
wat ... beim gleichen Bild? Ich weiß ja nicht... das Aliasing alleine... :D
Auf nem 20" Monitor vielleicht...?! :hmm:
Einfach DLSS/TAA und Bewegungsunschärfe auschalten und AF auf 16x + HQ. Oder ne Brille in Betracht ziehen... :ugly:
Dass bei "Matschgrafik" kein UHD hilft sollte klar sein...
 
Zuletzt bearbeitet:
Ich zocke noch in FHD 24". WQHD und 4K Gaming ist mir zu teuer. Erstmal ein guter Monitor und dann braucht man ja auch eine starke Grafikkarte. Aber wenn 8K kommt und marktreif wird, kann man wohl davon ausgehen das WQHD und 4K irgendwann günstiger werden. Vielleicht hole ich mir dann 4K in ein paar Jahren. Dann sind bestimmt auch schon die Mittelklasse-Grafikkarten dafür geeignet
Eigentlich sind Mittelklasse GPU's für 4k geeignet. Eine rtx3060ti ist ja Mittelklasse und kann die meisten Games sicher in 4k + Hohe Settings + >60fps. Aber die aktuellen GPU Preise... lassen wir lieber das Thema.
Das dauert noch bis wir Gamer wieder eine GPU kaufen können.
 
Ich wollte damit eigentlich betonen, dass "die Masse" sich so etwas vor einigen Jahren nicht gekauft hätte.

Und heute gibt es tatsächlich 1000€+ Mainboards für Mittelklasse Prozessoren... :haeh:

Sorry das ich Dein Beitrag verkürze aber ja.

Das Problem bzw. ggf. auch Vorteil ist das "PC" eben erwachsen wurde und leider hat das auch nicht jeder erlebt / überlebt (z.B. 3dFX ).
Ich finde es auf einer Seite irgendwie langweilig das es nur noch ~3 große Firmen gibt aber auf der anderen Seite hätte ich auch nicht Lust wieder Jumper auf Steckkarten zu setzen und die mit den paar freien IRQ auf dem MoBo so zu setzen das die theoretisch klappen wurden. Dann kam da noch Dos und die Treiber.....
naja als kurz Version kann man es aber auch so sehen das die Auswahl größer wurde; wenn auch nur versteckt hinter "dem selben" Standard-HW.
 
Sorry das ich Dein Beitrag verkürze aber ja.

Das Problem bzw. ggf. auch Vorteil ist das "PC" eben erwachsen wurde und leider hat das auch nicht jeder erlebt / überlebt (z.B. 3dFX ).
Ich finde es auf einer Seite irgendwie langweilig das es nur noch ~3 große Firmen gibt aber auf der anderen Seite hätte ich auch nicht Lust wieder Jumper auf Steckkarten zu setzen und die mit den paar freien IRQ auf dem MoBo so zu setzen das die theoretisch klappen wurden. Dann kam da noch Dos und die Treiber.....
naja als kurz Version kann man es aber auch so sehen das die Auswahl größer wurde; wenn auch nur versteckt hinter "dem selben" Standard-HW.
Oh je, du erinnerst mich da an düstere Zeiten. Mein erster und einziger Fertig-PC Pentium 2 von Pro Markt. Von Anfang an ständig blue screens wegen IRQ Konflikten. Habe das Problem nie lösen können, egal wie ich rumgebastelt habe. Das war der Grund weshalb ich seit dem alle PC's selbst zusammen geschraubt habe. Getreu den Motto: "blue screen kann ich auch selber machen".
 
Achja für die wo behauptet haben man kriege keinen guten Full HD Bildschirm mehr,ich habe mich mal umgesehen. Nen 24 " Full HD 144 Hertz habe ich gefunden. Kostet nicht die Welt .ALso von daher nach unten kann ich also sehr wohl noch runter gehen. Langfristig gebe ich also das immer mehr an Auflösung auf. Das hat auch was gutes.Geringere Hardware Anforderungen bei der GPU und SPiele die Vram Fressende sind,brauchen durch die geringere Auflösung auch etwas weniger GPU Speicher. Sollte es mal so hart sein das dann selbst in Full HD mal 12 gb Vram verbrät,werde ich wohl zu HD runter zu gehen gezwungen sein oder ich habe bis dahin mal ne neuere GPU.Egal was wohl zuerst eintreten wird,das wird sich noch zeigen.
Man muss halt nur den Willen haben wirlich richtig zu suchen,nach guten Bildschirmen.
 
Zurück