News 8K-Monitor: Erste Informationen zum Viewsonic VG3281 aufgetaucht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 8K-Monitor: Erste Informationen zum Viewsonic VG3281 aufgetaucht

Nach und nach kommen mehr 8K-Monitore auf den Markt: Nach dem ersten Modell von Dell und weiteren Ankündigungen von Samsung soll auch Viewsonic mit dem VG3281 ein 8K-Display in Arbeit haben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 8K-Monitor: Erste Informationen zum Viewsonic VG3281 aufgetaucht
 
4k fand ich ja prima. Endlich keine Pixel mehr zu sehen, anders als in Fhd. Aber da noch eine Steigerung? Ich glaube nicht, dass das nötig ist, jedenfalls nicht bei mir. Ich muss auf 60cm ran, um wieder Treppchen zu sehen. Normalerweise sitze ich 80-100cm entfernt, je nach Körperhaltung.
Selbst bei der Glotze wüsste ich nicht, ob 8k noch einen Vorteil bringen würde.
 
8K ist sowas von unnötig. Meine Cam sowie mein Handy nimmt Videos gerade mal in 4K mit maximal 50fps auf
Und sobald wir über Gaming reden ist sogar nicht mal annähernd von 4K die Rede. Ich lese ständig, dass selbst ne 4080 in 1080p schwitzt und Auflösungen überhalb von 1440p nutzt kaum einer beim Gaming.

4K ist bei TVs und auch bei Kameras mittlerweile Standard, beim Gaming jedoch noch lange nicht. 8K ist in meinen Augen ne Totgeburt, weil es kaum Kameras gibt, die 8K filmen können und keine GPU ein neueres Spiel in 8K mit mind. 30fps darstellen kann. Höchstens für Arbeitstiere ist der Monitor sinnvoll.
 
8k hmm? Ja ja... Unsere liebe Technikindustrie wiedermal... :schief:

Aber ernsthaft, sicher 8k auf nem 30" ist bestimmt was für Profis und auch bei
allgemeinen Arbeiten am Desktop ne schöne Sache.
Aber für uns Gamer? Ach komm...:ugly:

Ich Spiele nun schon ne ganze Weile am PC, und sub HD Auflösungen wie VGA 640x480px bis QVGA 1280x960px
waren so lange Standard, dass es aus heutiger Zeit kaum noch an jüngere Gamer vermittelbar ist... :lol:

Und auch die ersten 16:10 Auflösungen wie 1680x1050px, sind erst Mitte der 2000er aufgekommen...

Will heißen, selbst Auflösungen a la FullHD 1920x1080px; 16:9 sind noch gar nicht so lange "normal",
sondern auch erst nach dem Erfogszug von HDTV im PC Bereich heimisch geworden der traditionell
eher 4:3, 5:4 und später 16:10 Formate bevorzugte...
Und UltraHD/4K? Tja, die sind zwar seit knapp ~10 Jahren verfügbar, aber ganz sicher nicht Standard,
schon gar nicht als native Auflösung beim Zocken. Da sind 1080p und 1440p Monitore
scheinbar immer noch das Maß der Dinge.

Und wenn ich mir jetzt überlege, dass Nvidia, AMD & Co. ohne Upscaling bei modernen Spielen
kaum was reißen (auch dank des high FPS trends) , und "post processsing matsch Anti-Aliasing"
mittlerweile zum guten Ton gehört, :-$
eine Tatsache bei der sich mir immer noch regelmäßig der Magen umdreht, dann frage ich mich
was die Leute sich eigentlich so an dem Schlagwort 4K aufhängen?

Gott, wie ich die Zeiten von HQ MSAA und SSAA vermisse! Die Polygonzahlen waren mies,
aber wenigstens waren die Kanten selbst bei dürftigen Auflösungen glattgebügelt!

Und jetzt 8K...? Laut Steam ist die meistgenutzte Auflösung selbst heute noch FullHD (60%).
Selbst 1440p kommt kaum auf 15% und diverse Breitbild und 4K Auflösungen kommen zusammen
nicht mal auf 10%...

Und da will man mir 8K schmackhaft machen, während 80% der gesamten Gamerschaft mit interpolierten
und upgescalten Pixelbrei zufrieden ist und sich der Standard nicht einmal im TV Bereich behaupten kann? :haeh:

Denn seien wir doch mal ehrlich, bei 8K ist realistischerweise Schluss!
Selbst bei einem 32" Modell ist dann die Auflösung so hoch, dass selbst bei 10cm Abstand
man kaum noch einen Pixel sehen kann, von einer normalen Gaming-Situation, also 50-70cm Abstand
zum Monitor und Bewegtbild mit 60fps mal ganz zu schweigen...

Vielleicht in 10-15 Jahren... Vielleicht... :daumen:
 
Zuletzt bearbeitet:
Und da will man mir 8K schmackhaft machen, während 80% der gesamten Gamerschaft mit interpolierten
und upgescalten Pixelbrei zufrieden ist
Wie ich bereits schrieb, ist 8K aktuell komplett sinnlos bzw. unnötig. Weder Kameras noch Grafikkarten können Content in 8K bereitstellen. Die meisten Kameras schaffen 4K mit 25/30fps, einige gehobenere Cams auch 4K mit 50/60fps ggfs. auch 4K DCI mit 30 oder 60 und bestimmte schaffen mittleile 5K oder gar 6K mit 25/30 bzw. 50/60fps. Gibt zwar schon 8K-Kameras, aber die sind trotz allem noch Mangelware und zudem auch extrem teuer.

Von Gaming brauchen wir eigentlich nicht zu reden. Wenn Starfield selbst auf ner 4090 in 4K schon strauchelt ohne FSR, wie soll es dann erst in 8K werden.

Kurz gesagt: kein Content, keine 8K-fähige Hardware (GPUs, Cams etc.), der Standard ist Dead on Arrival
Vielleicht in 10-15 Jahren... Vielleicht...
bezweifle ich. Bei unseren Internetanschlüssen in DE, den absurd teuren GPUs wie der RTX 4090, Games wie Starfield die eine 4090 auseinandernehmen und dazu noch teure 8K-Cams wie die Alpha 7R V und halt der hohe Bedarf an Speicher für 8K-Footage. Der Standard hat parktisch keine Überlebenschance.
 
Wie ich bereits schrieb, ist 8K aktuell komplett sinnlos bzw. unnötig. Weder Kameras noch Grafikkarten können Content in 8K bereitstellen. Die meisten Kameras schaffen 4K mit 25/30fps, einige gehobenere Cams auch 4K mit 50/60fps ggfs. auch 4K DCI mit 30 oder 60 und bestimmte schaffen mittleile 5K oder gar 6K mit 25/30 bzw. 50/60fps. Gibt zwar schon 8K-Kameras, aber die sind trotz allem noch Mangelware und zudem auch extrem teuer.

Von Gaming brauchen wir eigentlich nicht zu reden. Wenn Starfield selbst auf ner 4090 in 4K schon strauchelt ohne FSR, wie soll es dann erst in 8K werden.

Kurz gesagt: kein Content, keine 8K-fähige Hardware (GPUs, Cams etc.), der Standard ist Dead on Arrival

bezweifle ich. Bei unseren Internetanschlüssen in DE, den absurd teuren GPUs wie der RTX 4090, Games wie Starfield die eine 4090 auseinandernehmen und dazu noch teure 8K-Cams wie die Alpha 7R V und halt der hohe Bedarf an Speicher für 8K-Footage. Der Standard hat parktisch keine Überlebenschance.
Na ja, wie gesagt im Profi Segment als Ausgangsmaterial sicherlich, aber du hast recht.
Viele vergessen eben schnell, dass die Spieleentwickler nicht den Kopf in den Sand stecken werden und
nicht auch ihre Spiele den technischen Möglichkeiten anpassen. Oft genug ist es eben schlicht so, dass es gut 5 Jahre
dauert bis man einen AAA Titel mit max. Details auf einem modernen System wirklich flüssig Spielen kann...
Das war bei Crysis so, bei The Witcher 3 ect. und wird auch bei Starfield, CP2077 und Anderen so sein.
Insbesondere da die Möglichkeiten an der Qualitätsschraube zu drehen mit High FPS Monitoren, 4K native,
Downscaling, HDR, Raytracing & Co. eher noch gestiegen sind.

Und wie du selbst sagst, die Preise geben dem ganzen dann den Rest, mal ganz zu schweigen von der geradezu
gruseligen Optimierungsqualität für PC Hardware... :ugly:

Und was die Internetanschlüsse angeht, na ja... Hab gerade auf ne 250er hochgestuft die, "plötzlich"
dann doch in meiner Gegend zur Verfügung stand. Auch wenn es Technisch in Deutschland etwas
hinterher hinkt im int. Vergleich, gerade was die Flächenabdeckung angeht, kann ich mich nicht wirklich
beschweren. Denn abgesehen von Gaming downloads ist ja nicht eine exorbitante Masse vorhanden,
die sowas dann auch nutzt. Da tut's ein schneller Ping oft eher...
Aber ich kann mich noch an Zeiten erinnern, in denen ich ne' halbe Std. auf den Download eines Treibers
warten musste, von daher... :haeh:
 
Zuletzt bearbeitet:
4k fand ich ja prima. Endlich keine Pixel mehr zu sehen, anders als in Fhd. Aber da noch eine Steigerung? Ich glaube nicht, dass das nötig ist, jedenfalls nicht bei mir. Ich muss auf 60cm ran, um wieder Treppchen zu sehen. Normalerweise sitze ich 80-100cm entfernt, je nach Körperhaltung.
Selbst bei der Glotze wüsste ich nicht, ob 8k noch einen Vorteil bringen würde.
Natürlich bringt es Vorteile.
Schau Dir mal 2160p auf nem 27 Zoll an und 1080p auf nem 14er. :P

Bei selben Verhältnissen ist eine höherer Auflösung nicht verkehrt.
PPI ist da Trumpf. 160 pixels per inch finde ich schon sehr angenehm.
Das "Problem" ist eben das der Vorteil (höherer zu kleiner Auflösung) irgendwann immer kleiner wird.
Wie 30 FPS zu 60 FPS zu 120 FPS zu 240 FPS.
Bei einem TV sieht es ähnlich aus aber durch deutlich weiteren Abstand, anderer Größe und anderer Nutzung
nicht 100% vergleichbar.

Lade Dir mal Wo Warships runter (kostenlos) und schau Dir mal die Schiffe an.
Selbst mit 2160p (auf 27er) kann man Aliasing sehen.
(ganz deutlich bei der Reling)
 
8K, hmm....Sinnvoll?

Jein, würde ich sagen.

Ja,
wenn hier mindestens 120hz mit im Spiel sind, zumindest bei meinen eigenen Simulationen für Lehrfahrten.
Mit nur mindestens einem, besser zwei 55" Monitor/en, oder auch TV/s, (je nach Lok-/LKW-Scheibe in voll, oder geteilter Glasfläche) kommt bei einem Abstand von realen 85-120cm Sitzabstand wie in einer echten E-Lok, ein wahres Sichtgefühl auf, wo man das Gefühl der Fahrdynamik merkbar suggeriert bekommt.
Natürlich muß die Simulationssoftware auch in selbiger Auflösung nutzbar sein, was derzeit eher noch Baustelle ist.

Nein,
wenn man nicht zur Auflösung auch die wirklich nutzbare Abmeßung ab mindestens 43" Bildschirm nutzen möchte/kann, um in die Athmosphäre mit geringsten Sitzabstand einzutauchen, natürlich auch mit den dann dazu nötigen Kopfbewegungen, um die Umgebung annähernd natürlich wahrzunehmen.

Die Entscheidung habe ich mit meinen zwei 43" Monitoren schon längst getroffen und bin damit sehr viel mehr begeistert, als mit 16" WQXGA Auflösung im derzeitigen Notebook!
 
Jaaaa an allen ist alles was dran aber:
Bist Du zufrieden mit Standard?
Bist Du glücklich / zufrieden mit 1080p @ 60Hz?
Das ist gar nicht der Punkt... Ich zocke nicht in FHD...

Der Punkt ist dass 95% der Gamer nicht mal 4K nutzt, dass seit nunmehr
gut 10 Jahren verfügbar ist. Schon gar nicht in "HQ" oder nativ,
es sei denn es handelt sich um ein 10 Jahre altes Spiel.

Dennoch versucht man uns all zu oft einzureden es müsse "noch mehr" sein...
Da spielt es keine Rolle ob wir über 120FPS+ oder HDR oder RT reden...
Fortschritt ist das eine, Unsinn das andere... In der Theorie sind diese Features alle ganz nett,
aber wirklich nutzen tun's die wenigsten... Was bringt mir denn 8K wenn selbst ne 4090
schon all zu oft bei 4K auf DLSS 3 setzen muss?
 
Das ist gar nicht der Punkt... Ich zocke nicht in FHD...

Der Punkt ist dass 95% der Gamer nicht mal 4K nutzt, dass seit nunmehr
gut 10 Jahren verfügbar ist. Schon gar nicht in "HQ" oder nativ,
es sei denn es handelt sich um ein 10 Jahre altes Spiel.

Dennoch versucht man uns all zu oft einzureden es müsse "noch mehr" sein...
Da spielt es keine Rolle ob wir über 120FPS+ oder HDR oder RT reden...
Fortschritt ist das eine, Unsinn das andere... In der Theorie sind diese Features alle ganz nett,
aber wirklich nutzen tun's die wenigsten... Was bringt mir denn 8K wenn selbst ne 4090
schon all zu oft bei 4K auf DLSS 3 setzen muss?
:ka: :huh::confused:
Unterschied zu 2020, 2010, 2000, 1990 usw. usw. usw.

Es gab immer irgendjemand der sagte xyz ist überflüssig weil ABC.
Ich weise nochmal auf den Spruch mit 640KB Speicher und max. 5 PCs weltweit hin.
Nur durch Leute welche "mehr" haben wollen wird die Leistung einer RTX 4090 früher oder später von
High-End zur Enthusiasten-Klasse, Oberklasse, Massenmarkt und sogar irgendwann Low-End.
Es wird neue Möglichkeiten geben welche gerne die mehr Leistung mitnehmen.
 
Natürlich bringt es Vorteile.
Ja, aber wirklich sichtbar?
Schau Dir mal 2160p auf nem 27 Zoll an und 1080p auf nem 14er.
Also mir reicht 2160p auf 32". Dank recht hohem Sitzabstand sieht das einwandfrei aus.
Lade Dir mal Wo Warships runter (kostenlos) und schau Dir mal die Schiffe an.
Selbst mit 2160p (auf 27er) kann man Aliasing sehen.
(ganz deutlich bei der Reling)
Mag sein, aber juckt mich Aliasing bei der Grafik? Wenn man mal wirklich nahe an fotorealistisch ist, dann kann man darüber diskutieren, den letzten Rest zu optimieren. Sind wir aber nicht. Mein neuestes Spiel ist ohnehin von 2018, von daher...
Sicher geht es noch besser, aber für welchen Anwendungszweck? Für mich würde 8k keinen wirklichen Mehrwert mehr bieten. Ich bin jetzt seit 6 Jahren in Uhd unterwegs und das ist einwandfrei so. Aber ich merke ja auch keinen Unterschied zwischen 60Hz und 120Hz, von daher... :ugly:
 
:ka: :huh::confused:
Unterschied zu 2020, 2010, 2000, 1990 usw. usw. usw.

Es gab immer irgendjemand der sagte xyz ist überflüssig weil ABC.
Ich weise nochmal auf den Spruch mit 640KB Speicher und max. 5 PCs weltweit hin.
Nur durch Leute welche "mehr" haben wollen wird die Leistung einer RTX 4090 früher oder später von
High-End zur Enthusiasten-Klasse, Oberklasse, Massenmarkt und sogar irgendwann Low-End.
Es wird neue Möglichkeiten geben welche gerne die mehr Leistung mitnehmen.
Da gibt es sehr wohl einen Unterschied. Denn zu CRT Zeiten war das ohnehin egal, weil
niemand in "nativer" Auflösung spielen konnte. Und bei den ersten LCD's gab es bei weitem
nicht so ein extremes Auflösungsgefälle. Da hatte man mit Glück nen 1280x1024px LCD
und hat nativ gespielt. Aber da gab's keine "absurden" Monitore die die vierfache Auflösung geboten hätten...
Die Steigerung der Auflösung von Monitoren war schlicht nie so drastisch
wie von FullHD1920x1080 zu UHD(x4) zu UHD2(x16).
Und nur mal so am Rande, Auflösungen im Bereich von FullHD gab's auch schon bei Monitoren in den 90ern,
was das ganze nur noch drastischer erscheinen lässt.

Fakt ist das der "Standard" auch heute noch Full HD/teils 1440p ist und nur eine absolute
Minderheit überhaupt 4K nutzt. Und das auch oder gerade weil HW so teuer geworden ist...

Sicherlich mehr Leistung ist immer gut - keine Frage.

Aber mir in der heutigen Zeit, in der die Adaptionsrate von 4K bei vermeintlichen "5%" liegt,
(bei Konsolen ist sie eventuell höher, weil die Verbreitung von günstigen 4K tv's eben recht hoch ist)
dass in den allermeisten fällen nicht mal nativ genutzt wird(!) weiß machen zu wollen,
dass es einen echten Bedarf an 8K Monitoren gibt, wäre das selbe als hätte ich eine 4090
die durch das aufwendigste Spiel auf dem Markt gerade einmal
zu 10% ausgelastet würde, während mir Nvidia versucht ne 5090 zum doppelten Preis zu verkaufen...

Es ist sinnlos, insbesondere seit es gute Techniken für's downsampling gibt.

Wer viel am Desktop arbeitet, der profitiert eventuell "qualitativ" von 8K oder einem hoch aufgelösten
21:9 Monitor, aber abseits vom Profibereich sehe ich keinen Markt für 8k, nicht einmal bei TV's...

Mal ein Simples Beispiel: Die TitanX konnte vermeintlich als eine der ersten Karten Witcher 3 in 4K flüssig
wiedergeben, heute gute 8 Jahre später schafft ne 4090 in CP2077 nativ mit RT in 4K kaum 40fps...
Will heißen, die Gamingindustrie ist viel schneller dabei deine teuer erkaufte Rechenleistung mit neuen
Features zu verballern, als dass du in nächster Zukunft in den Genuss von 8K kommst.
Und das war schon immer so...

Denn mit "8K" rumzuposen, während man DLSS im "perormance" (matsch-mode) zur Hilfe bittet,
ist so ziemlich das sinnloseste was ich mir so vorstellen kann... :schief:
 
Zuletzt bearbeitet:
Da gibt es sehr wohl einen Unterschied. Denn zu CRT Zeiten war das ohnehin egal, weil
niemand in "nativer" Auflösung spielen konnte. Und bei den ersten LCD's gab es bei weitem
nicht so ein extremes Auflösungsgefälle. Da hatte man mit Glück nen 1280x1024px LCD
und hat nativ gespielt. Aber da gab's keine "absurden" Monitore die die vierfache Auflösung geboten hätten...
Die Steigerung der Auflösung von Monitoren war schlicht nie so drastisch
wie von FullHD1920x1080 zu UHD(x4) zu UHD2(x16).
Und nur mal so am Rande, Auflösungen im Bereich von FullHD gab's auch schon bei Monitoren in den 90ern,
was das ganze nur noch drastischer erscheinen lässt.

Fakt ist das der "Standard" auch heute noch Full HD/teils 1440p ist und nur eine absolute
Minderheit überhaupt 4K nutzt. Und das auch oder gerade weil HW so teuer geworden ist...

Sicherlich mehr Leistung ist immer gut - keine Frage.

Aber mir in der heutigen Zeit, in der die Adaptionsrate von 4K bei vermeintlichen "5%" liegt,
(bei Konsolen ist sie eventuell höher, weil die Verbreitung von günstigen 4K tv's eben recht hoch ist)
dass in den allermeisten fällen nicht mal nativ genutzt wird(!) weiß machen zu wollen,
dass es einen echten Bedarf an 8K Monitoren gibt, wäre das selbe als hätte ich eine 4090
die durch das aufwendigste Spiel auf dem Markt gerade einmal
zu 10% ausgelastet würde, während mir Nvidia versucht ne 5090 zum doppelten Preis zu verkaufen...

Es ist sinnlos, insbesondere seit es gute Techniken für's downsampling gibt.

Wer viel am Desktop arbeitet, der profitiert eventuell "qualitativ" von 8K oder einem hoch aufgelösten
21:9 Monitor, aber abseits vom Profibereich sehe ich keinen Markt für 8k, nicht einmal bei TV's...

Mal ein Simples Beispiel: Die TitanX konnte vermeintlich als eine der ersten Karten Witcher 3 in 4K flüssig
wiedergeben, heute gute 8 Jahre später schafft ne 4090 in CP2077 nativ mit RT in 4K kaum 40fps...
Will heißen, die Gamingindustrie ist viel schneller dabei deine teuer erkaufte Rechenleistung mit neuen
Features zu verballern, als dass du in nächster Zukunft in den Genuss von 8K kommst.
Und das war schon immer so...

Denn mit "8K" rumzuposen, während man DLSS im "perormance" (matsch-mode) zur Hilfe bittet,
ist so ziemlich das sinnloseste was ich mir so vorstellen kann... :schief:
8k hat ja auch optische Nachteile. PPI wird viel zu hoch, das sieht nicht mal gut aus. Das ist wie das Megapixelrennen früher bei Kameras.

Der Sweetspot liegt irgendwo zwischen fhd und 4k, den meisten reicht FHD oder WQHD.

Aber Monitorhersteller wollen verkaufen und ich wette auf der PS6 steht auch eher 8K!!!!!!!!!(gelogen) als "stable 60 fps"
 
Zurück