Dell UP3218K im Video: 8K-Monitor jetzt auch in Deutschland vorgestellt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Dell UP3218K im Video: 8K-Monitor jetzt auch in Deutschland vorgestellt gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Dell UP3218K im Video: 8K-Monitor jetzt auch in Deutschland vorgestellt
 
Aha...es ist also ENORM wichtig, das man so eine hohe Auflösung hat. OK..Full HD war gestern, 4K ist ok, aber bei Dell gehts nicht ohne 8K. Hut ab!
 
Wir schaffen nichtmal ordentlich 4k mit unseren Steroid-1080ti´s und die kommen mit 8k an.

Dann gibts auf der E3 keinen einzigen Top-VR Titel... auch das geht schon wieder den Bach runter wie damals 3D TV/Monitore....
Obwohl RE7 zeigte was geht....

ei ei ei...
 
PCGH schrieb:
Für Gamer dürfte er aber nicht nur wegen des astronomischen Preises uninteressant sein. Denn keine GPU liefert in dieser Pixelmenge flüssige Frameraten. Selbst das Viertel davon, also 4K bzw. UHD, dürfte erst mit einer Geforce GTX 1080 ti oder höher sinnvoll spielbar sein.

Was natürlich so nicht stimmt, man muß sich nur von der Vorstellung lösen, das es nichts unterhalb von Ultra gibt, dann klappt das auch, zumindest mit einer GTX 1080 aufwärts. Ich bin auch nicht frei davon, was mir meine GTX 980Ti eingebrockt hat.

Ihr solltest ein Selbsterfahungsseminar bei einem Guru buchen:

"Wie schieben die Detailregler ganz nach links, der VRAM wird leer, könnt ihr die Leere spüren? Fühlt ihr, wie die verringerten Details die Framerate ansteigen lassen? Seht ihr diese gigantische Auflösung? Seht wie ihr keinen Pixel mehr wahrnehmen könnt..."

Aha...es ist also ENORM wichtig, das man so eine hohe Auflösung hat. OK..Full HD war gestern, 4K ist ok, aber bei Dell gehts nicht ohne 8K. Hut ab!

Profis (für die der Monitor auch gedacht ist) haben da ganz andere Anforderungen als der normale Zocker. Bilder werden z.B. durchaus in 10.000x10.000 aufwärts gerendert da von Vorteil, wenn man eine möglichst hohe Auflösung und richtig viel RAM (128GB sind nicht verkehrt) hat.
 
"4k hat sich nicht etabliert" klingt als gäbst die technischen Möglichkeiten 4k sowohl auf Monitor als auch PC Seite anständig zu betreiben schon seit 10 Jahren aber keiner hat gekauft.
 
Ganz gleich was man von dem Montitor hält, solch ein professionelles Gerät sollte auch professionell präsentiert werden...
 
Wir schaffen nichtmal ordentlich 4k mit unseren Steroid-1080ti´s und die kommen mit 8k an.

Dann gibts auf der E3 keinen einzigen Top-VR Titel... auch das geht schon wieder den Bach runter wie damals 3D TV/Monitore....
Obwohl RE7 zeigte was geht....

ei ei ei...

Wer sagt denn das der Monitor fürs Zocken gedacht ist?

FullHD hat sich auch nicht von heute auf morgen etabliert, auch wenn einem das so vorkommen mag weil es schon so lange standard ist. Seit der Einführung von FullHD hat sich im Grunde nicht viel getan, was die Auflösung anbelangt. Wir könnten schon seit Jahren 1440p als Standard haben, hängen aber immer noch bei FHD. Jetzt, wo so langsam auch bei den TV-Geräten mehr und mehr 4K bzw. UHD zum Einsatz kommt, regt sich ein gewisser Fortschritt. Der Stillstand bei der Auflösung hängt eben auch mit den TV-Geräten zusammen, bzw. mit den Inhalten. Hätte es diese enge Kopplung nie gegeben, wären andere Auflösungen und Formate heute viel weiter verbreitet, etwa das gute alte 16:10, 1440p, 1600p, 2160p, usw.
Selbst Monitore mit 1440p sieht man abseits des Gamings so gut wie überhaupt nicht.
Ich bin daher schon froh dass einzelne Hersteller wie Dell auch mal solche Vorstöße wagen mit 5K oder jetzt auch 8K Monitoren. Und nur weil der Monitor auch in 8K auflöst, muss man ja noch lange nicht in 8K zocken.
 
So ein Display kommt nicht zu früh, nein, es kommt ziemlich spät.
Leute, überlegt doch einfach mal, wieso bei Smartphones die sogenannt Retina-Displays, also Displays mit ~300PPI eingeführt wurden? Richtig, in aller Linie für brillante Textdarstellung!

Seit ein paar Jahren gibt es derartige Pixeldichten dann auch bei Notebooks---schon das hat viel zu lange gedauert und wird leider auch immer noch lange dauern, bis es sich durchsetzt. Klar ist aber auch, wieso so es lange gedauert hat: Zwar kann man statt eines 2160p-15Zoll-Display könnte man auch neun 720p-5Zoll-Displays produzieren. Aber nur, weil man neun 720p-5Zoll-Displays prdouziert bekommt, reicht es noch lange nicht für ein 2160p-15Zoll-Display. Nein, das ist noch teurer, weil ja keines der neun imaginierten Teildisplays Schrott sein darf.
Und genau so geht es jetzt halt mit 4320p auf ~30 Zoll weiter.

Klar, ich habe jetzt gesagt, wieso es schwieriger ist, als man vielleicht hoffen könnte. Aber: Es ist halt auch ein wahnsinniger Gewinn für diejenigen, die mit viel, viel Text am Display arbeiten müssen. Und es wäre auch nicht erst heute möglich gewesen...


...BTW: Nach wie vor schade, dass niemand Monitore aus Notebookpanels baut. Ich bin mir sicher, es hätten auch schon vorher gerne Leute mit mehren 2160-13/15/17ern nebeneinander gearbeitet.
 
Wer sagt denn das der Monitor fürs Zocken gedacht ist?

FullHD hat sich auch nicht von heute auf morgen etabliert, auch wenn einem das so vorkommen mag weil es schon so lange standard ist. Seit der Einführung von FullHD hat sich im Grunde nicht viel getan, was die Auflösung anbelangt. Wir könnten schon seit Jahren 1440p als Standard haben, hängen aber immer noch bei FHD. Jetzt, wo so langsam auch bei den TV-Geräten mehr und mehr 4K bzw. UHD zum Einsatz kommt, regt sich ein gewisser Fortschritt. Der Stillstand bei der Auflösung hängt eben auch mit den TV-Geräten zusammen, bzw. mit den Inhalten. Hätte es diese enge Kopplung nie gegeben, wären andere Auflösungen und Formate heute viel weiter verbreitet, etwa das gute alte 16:10, 1440p, 1600p, 2160p, usw.
Selbst Monitore mit 1440p sieht man abseits des Gamings so gut wie überhaupt nicht.
Ich bin daher schon froh dass einzelne Hersteller wie Dell auch mal solche Vorstöße wagen mit 5K oder jetzt auch 8K Monitoren. Und nur weil der Monitor auch in 8K auflöst, muss man ja noch lange nicht in 8K zocken.

Ich hab kein FullHD :heul::heul::heul:

1680x1050
 
Wer sagt denn das der Monitor fürs Zocken gedacht ist?

FullHD hat sich auch nicht von heute auf morgen etabliert, auch wenn einem das so vorkommen mag weil es schon so lange standard ist. Seit der Einführung von FullHD hat sich im Grunde nicht viel getan, was die Auflösung anbelangt. Wir könnten schon seit Jahren 1440p als Standard haben, hängen aber immer noch bei FHD. Jetzt, wo so langsam auch bei den TV-Geräten mehr und mehr 4K bzw. UHD zum Einsatz kommt, regt sich ein gewisser Fortschritt. Der Stillstand bei der Auflösung hängt eben auch mit den TV-Geräten zusammen, bzw. mit den Inhalten. Hätte es diese enge Kopplung nie gegeben, wären andere Auflösungen und Formate heute viel weiter verbreitet, etwa das gute alte 16:10, 1440p, 1600p, 2160p, usw.
Selbst Monitore mit 1440p sieht man abseits des Gamings so gut wie überhaupt nicht.
Ich bin daher schon froh dass einzelne Hersteller wie Dell auch mal solche Vorstöße wagen mit 5K oder jetzt auch 8K Monitoren. Und nur weil der Monitor auch in 8K auflöst, muss man ja noch lange nicht in 8K zocken.

Es gibt/ gab noch Massen weiterer Bremsfaktoren:
1. Die (Sub-) 720p-Konsolen.
2. Windows-Skalierung.
3. Nicht genügender Qualitätsanspruch bei den Herstellern der Panels für HighEnd-Monitore.
4. Anschluss-Limits und die daraus resultierenden Probleme. (Entscheidung zwischen WQHD144 und UHD60)
5a. Das altes Problem der nicht genügend umfangreichen Einstellungsoptionen in Spielen: Nichts, was RealTimeRendered ist, sollte je ohne ResolutionScale in den Settings erscheinen.
5b. Daher gibt es dann die Äußerungen von wegen Graka X taugt nicht für die und die Auflösung.
 
2. Windows-Skalierung.
3. Nicht genügender Qualitätsanspruch bei den Herstellern der Panels für HighEnd-Monitore.
4. Anschluss-Limits und die daraus resultierenden Probleme. (Entscheidung zwischen WQHD144 und UHD60)
5a. Das altes Problem der nicht genügend umfangreichen Einstellungsoptionen in Spielen: Nichts, was RealTimeRendered ist, sollte je ohne ResolutionScale in den Settings erscheinen.
5b. Daher gibt es dann die Äußerungen von wegen Graka X taugt nicht für die und die Auflösung.

2. Behoben seit dem letzten Update. Auch professionelle SW wie Solidworks skaliert gut.
3. Da weiß ich nicht genau, was du meinst, bzw. kann es nicht nachvollziehen.
4. Mir persönlich reichen 60Hz aus. Ich würde aber nicht mehr von UHD wegwollen, seit ich weiß wie viel schärfer das Bild ist. Ich weiß aber, dass Leute mit 144Hz das gleiche sagen. Aber wenn man ohne 120/144Hz nicht klarkommt, dann nimmt man halt 1440p. Und das spielt denke ich nur in Spielen eine Rolle, denn wozu braucht man 120Hz um relativ statische Bilder anzuzeigen?

5a. Das Problem kann ich nachvollziehen. Schlimmer ist aber noch fehlende Interface-Skalierung, vor allem bei älteren Spielen.
5b. Diese Aussagen find ich auch immer lächerlich, die Leute denken nicht, was mit ner RX480 möglich ist. Ab 3200x1800 bzw. 80% Renderauflösung ist das Bild nämlich definitiv schärfer als auf einem FullHD der gleichen Größe, trotz der Skalierung (Auch wenn es dann natürlich kein UHD mehr ist.) Außerdem profitiert man stark außerhalb von Spielen, weshalb ich auch die nicht ganz saubere Skalierung von 1080p-->UHD, oder von 1440p-->UHD in Kauf nehmen würde. Und dann gibt es noch Spiele wie WarThunder, die in UHD auf Hoch mit 60fps laufen. Civ VI lässt sich auch auf Hoch sehr passabel in UHD spielen. Mittelerde Mordors Schatten hab ich dann eben mit 80% Renderauflösung gespielt, um im FreeSync Range zu bleiben (ab 40Hz).
Und mein mit Abstand meistgespieltes Spiel, World of Tanks, spiele ich auf maximal, mit 80% Renderauflösung bei fast konstant 60fps. (Ohne FRTC gehts auf 70-80 hoch z.T) UHD würde auch gehen (ohne Kantenglättung), aber dann würden die fps meist bei 50 liegen, mit Drops auf z.T 40, was dann nicht mehr durchgeht.
 
Denn keine GPU liefert in dieser Pixelmenge flüssige Frameraten. Selbst das Viertel davon, also 4K bzw. UHD, dürfte erst mit einer
Geforce GTX 1080 ti oder höher sinnvoll spielbar sein.


Das liest man immer und immer wieder, richtiger wird es deshalb auch nicht.
Klar sind aktuelle GPUs in der Lage, diese Pixelzahl in flüssigen Frameraten abzuspielen - es kommt eben auf den Content an.
Nicht jedes Game ist so leistungshungrig, es hängt auch von den Settings ab, und es gibt mehr als genug Leute da draußen, die ihre älteren Spiele-Schätze einfach mal in neuer Pracht sehen wollen.
Grade das ist ja einer der allergrößten Vorteile eines PCs, den er gegenüber geschlosseneren Plattformen wie Konsolen hat: Die Spiele wachsen mit neuer Hardware mit und profitieren davon.
Und es gibt genug ältere oder gar nicht mal sooo alte Games, die dann in 8K wunderbar laufen.

Abgesehen davon gibt es auch Leute, die ihr Kleingeld in extreme Konfigurationen investieren, die auch in neuen Games von 8K profitieren.

Also kann man mitnichten pauschal behaupten, das sei für Gamer uninteressant (wie hier im Artikel geschehen).
 
2. Behoben seit dem letzten Update. Auch professionelle SW wie Solidworks skaliert gut.
3. Da weiß ich nicht genau, was du meinst, bzw. kann es nicht nachvollziehen.
4. Mir persönlich reichen 60Hz aus. Ich würde aber nicht mehr von UHD wegwollen, seit ich weiß wie viel schärfer das Bild ist. Ich weiß aber, dass Leute mit 144Hz das gleiche sagen. Aber wenn man ohne 120/144Hz nicht klarkommt, dann nimmt man halt 1440p. Und das spielt denke ich nur in Spielen eine Rolle, denn wozu braucht man 120Hz um relativ statische Bilder anzuzeigen?

5a. Das Problem kann ich nachvollziehen. Schlimmer ist aber noch fehlende Interface-Skalierung, vor allem bei älteren Spielen.
5b. Diese Aussagen find ich auch immer lächerlich, die Leute denken nicht, was mit ner RX480 möglich ist. Ab 3200x1800 bzw. 80% Renderauflösung ist das Bild nämlich definitiv schärfer als auf einem FullHD der gleichen Größe, trotz der Skalierung (Auch wenn es dann natürlich kein UHD mehr ist.) Außerdem profitiert man stark außerhalb von Spielen, weshalb ich auch die nicht ganz saubere Skalierung von 1080p-->UHD, oder von 1440p-->UHD in Kauf nehmen würde. Und dann gibt es noch Spiele wie WarThunder, die in UHD auf Hoch mit 60fps laufen. Civ VI lässt sich auch auf Hoch sehr passabel in UHD spielen. Mittelerde Mordors Schatten hab ich dann eben mit 80% Renderauflösung gespielt, um im FreeSync Range zu bleiben (ab 40Hz).
Und mein mit Abstand meistgespieltes Spiel, World of Tanks, spiele ich auf maximal, mit 80% Renderauflösung bei fast konstant 60fps. (Ohne FRTC gehts auf 70-80 hoch z.T) UHD würde auch gehen (ohne Kantenglättung), aber dann würden die fps meist bei 50 liegen, mit Drops auf z.T 40, was dann nicht mehr durchgeht.
2. Nunja, ich sehe darin auch keine größeres Problem (mehr) und ja, das letzte große Windows-Update hat nochmal ordentlich ein Schippe draufgelegt. Aber es gibt auch mit den neuen Optionen immer noch mehr als genügend Programme, die sehr schlecht skalieren.
3. Es gibt sehr viele hochpreisige Monitore, die dennoch einen Haufen an Problemen haben. Und damit meine ich nicht, dass die technischen Daten einfach nicht gut genug sind, sondern gehäufte Berichte von Pixelfehlern und vor allen Dingen ganz, ganz vielen Backlightproblemen. Und das sind dann immer Reihen, die die gleichen Panels nutzen. Klar, es kann sein, dass es zu dem Zeitpunkt nicht besser ging, dann hätte man aber selektieren und ehrlich bewerben sollen und den Markt damit dann sowohl mit Schnäppchengeräten mit diesen Schwächen wie auch Hochpreisgeräten ohne diese Schwächen aufteilen sollen. Die Lotterie, der sich einige User stellen mussten, ist hingegen nicht wirklich hinnehmbar...
4. Das coole am Trippelpaket aus hoher Bildwiederholrate, hoher Auflösung und VRR ist halt, dass man auf nichts verzichten muss. Ein Gerät, das toll zu Arbeiten mit Texten ist, toll zum Zocken detailreicher Spiele, toll zum Zocken schneller Spiele.
Mir reichen 60hz auch aus---ich hätte aber dennoch 144hz (und damit verbunden übrigens auch bessere Reaktionszeiten) gerne mitgenommen, wenn ich es denn hätte kaufen können. Auf HighPPI hätte ich hingegen nicht verzichten können.

BTW: Generell ist eine hohe Auflösung natürlich auch für Rastergrafiken, also in der Video- und Photobearbeitung, von Vorteil---aber eben nicht so bedeutend wie bei den Vektorgrafiken.

(...)

Also kann man mitnichten pauschal behaupten, das sei für Gamer uninteressant (wie hier im Artikel geschehen).
Ich stimme dir zu, möchte aber noch zusätzlich betonen, dass der Monitor unnötig durch Dell geschwächt wird---man hätte dem Monitor FreeSync verpassen sollen. Selbst eine minimalistische Range von 55-60hz, was wirklich jedes Panel packen sollte, wäre ein großer Vorteil gegenüber der rein statischen Bildwiederholrate.
 
Ich stimme dir zu, möchte aber noch zusätzlich betonen, dass der Monitor unnötig durch Dell geschwächt wird---man hätte dem Monitor FreeSync verpassen sollen. Selbst eine minimalistische Range von 55-60hz, was wirklich jedes Panel packen sollte, wäre ein großer Vorteil gegenüber der rein statischen Bildwiederholrate.

Agreed... allerdings nervt mich bei der Sache noch der uneinheitliche Standard durch G- und FreeSync.
Zwar wähle ich meine Grafikkarten eigentlich vom Hersteller unabhängig (mir ist besonders eine hohe Bildqualität wichtig), ich nehme immer das Modell, das meine Anforderungen am besten innerhalb eines bestimmten Budgets erfüllt;
die letzten Jahre habe ich allerdings öfters zu nVidia gegriffen als zur Konkurrenz aufgrund einiger nVidia-exklusiver Vorteile, die ich nicht missen wollte; zumindest derzeit wäre mir also G-Sync wichtig, was allerdings natürlich wieder mit höheren Kosten beim Monitor verbunden ist und bei einem zukünftigen Herstellerwechsel natürlich dann auch nervt. Wobei G-Sync theoretisch ja leichte Vorteile gegenüber Freesync haben sollte... egal.
Worauf ich hinaus will:
Nachdem der Monitormarkt bis vor gar nicht allzulanger Zeit ja eine ganze Ewigkeit regelrecht stagniert ist und kaum neue Features geboten wurden, werden wir derzeit ja geradezu mit tollen Neuigkeiten überschwemmt:
4K, 8K, 21:9 und noch extremere Bildbreiten, HDR, FreeSync, G-Sync, Curved oder nicht Curved, Quantum Dots, Bildwiederholraten von 144 oder sogar 240 Hz, erweiterte Farbräume usw usw.

Leider ist es hierbei allerdings derzeit schlicht unmöglich geworden, alles unter einen Hut zu kriegen, das heißt die eierlegende Wollmilchsau zu erhalten.
Da muß man sich wohl noch länger gedulden...

Bin allerdings auch eher aus der Projektor-Fraktion, das Spielen mit 4,50 Meter breitem Bild ist schon nochmal was ganz anderes... nur hat man in diesem Bereich viele der oben genannten Features noch gar nicht.

Werde auf kurz oder lang allerdings eh auf VR umsteigen, ich hoffe daher das hat Zukunft, auch wenns ja derzeit nicht so toll aussieht...
 
hi,was 32 " ist ja viel zu groß.Aber ich freue mich dann kann ich ja endlich erwarten das beim 24 " Bildschirm entweder die Hertz zahl auf 120 Hertz steigt oder die AUflösung sich erhöht um da sehr hohe Pixeldichte zu erreichen.Ich habe zwar schon 183 was ja auch ausreicht.
Ich weis das ich es nicht richtig betreibe.Habe einen Freesync Bildschirm mit Nvidia gekoppelt.Sowas wie comapny of heroes Opposing front hatte ich darum auch probleme gehabt.Das spiel brachte von sich aus vsinc mit.Darum bemerkte ich es sehr hart.Stellte ich 2560x1440 ein,gabe es keine Bildrisse und es fühlte sich flüssig an.Kaum stellte ich aber auf 3840x2160 dann war es auf 25 Fps festgesetzt.Darum ruckelte das spiel.Als ich vsinc von dem spiel abgeschaltet hatte stiegen de fps an aber es gab starke bildrisse.Ich musste das mit einem parameter auf 45 fps festlegen und schon war alles gut.
Ich merke schon meine TItan 6 gb ist zu schwach.So musste ich das halt abschalten um das beste kompromiss zu bekommen.

Dank der höheren Pixeldichte konnte ich Kantenglättung reduzieren.Ich hatte es ausprobiert kappt.Es sah minimal schlechter aus ohne allerdings bekam ich dadurch keine fps mehr dazu.Das heißt hier könnten die Spiele schuld sein.Dieses Phänomen konnte ich auch bei den Saintrow spielen feststellen.
Ich konnte einstellen was ich wollte.Aber sobald ich auf 2560x1440 auch dort eingestellt hatte schossen die fps sogar auf das doppelte hoch.
Merkwürdig.Was haben denn die Spiele imemr mit der Auflösung.Dabei war es egal ob ich auf niedrig oder hoch gestellt habe.Die Spiele scheinen alergisch auf ne hohe auflösung zu haben.


Auf dem Laptop habe ich nur 2880x1620 gedonsampled.Ich kann also nicht sagen wie sich die mobile gtx 1070 in der disziplin schlagen würde.Aber dank gsinc auf dem Laptop bekomme ich irgendwie nicht mehr als 75 fps zu sehen.Naja irgendwas muss ich wohl falsch machen.
Und hier geht es schon um 8k.Solange solche Probleme wie ich sie habe nicht aus der welt geschaffen werden wird das Problem immer noch schlimmer.Schade das da welche gepfuscht haben.Hätte ich das gewusst welche Probleme auf mir zu kommen hätte ich mich auch zum bildschirm mit 2560x1440 entschieden.Das wird mit 8K nicht besser,sondern schlimmer.Das werdet ihr schon sehen
 
Zurück