Displayport 2.1 mit 8K und 165 Hz: Erste Monitore sollen schon Anfang 2023 kommen

Wir brauchen keine 8K Xtrillionen hz monitore!

Wir brauchen 8K xbilliarden VR headsets... da ist das einzige Szenario wo ich einen tieferen Sinn in der hohen Auflösung sehe!

Dazu bräuchte man dann allerdings auch noch eine GPU, welche die ganzen frames dann auch berechnen kann.

Da denke ich wird DP2.1 die zukunft sein.

Dies allerdings noch nicht heute.

Evtl.. in 1-2 GPU generationen dann.

Und bis dahin wird vermutlich auch nvidia umstellen aif DP 2.0
 
Ich hätte schon Bock auf einen besseren Monitor. Mit 8K könnte ich mir auch mal einen 40" vorstellen. Jedoch wird die Leistungsaufnahme widerlich sein, der Preis lange sehr hoch und spieltauglich werden die Panels vermutlich Anfangs nur bedingt sein. Hertzzahl ist ja nicht alles.
 
wird bestimmt wegen den EU Richtlinien nix wirklich feines. Monitore sind langweilig geworden und Preislich auch uberzogen
Wenn aber 8K Monitore der neue Standard werden (was für alle Flimmerfeinde super wäre), wird 4K massenmarkttauglich
8K Gaming ist aktuell absoluter Unsinn, egal von wem es kommt. WQHD hat ja nicht mal FullHD bei der Verbreitung überholt, geschweige denn 4K.
Ich bin übrigens selbst so ein FHD - Depp :D
Kommt mir einfach günstiger. Kann mit einer angeschimmelten Grafikkarte noch neue Spiele spielen usw. Brauche außerdem keine 2000€ Karte, sondern es hat (bis zur enormen Preiserhöhung der letzten 4 Jahre) eine um knappe 200€ gereicht (zuletzt hab ich 2016 meiner Frau eine 1060 im Sonderangebot gekauft, 220€).
Manche finden aber Auflösung so genial, dass ihnen das lieber ist als mehr grafische Details/Objekte usw.
Und ich kann das nicht nachvollziehen, denn mir ist der Weg zum Fotorealismus wichtiger, als hohe Auflösungen. Aber es gibt dann eben Leute - und offenbar nicht wenige - die Ticken halt anders. Jeder ist anders und gut ists.
Die haben dann einen 8K Monitor und eine 8K Grafikkarte und spielen moderne Spiele dann halt in 8K (mit teilweise reduzierte regler) auf iherer 4090 oder was auch immer, oder spielen Klassiker in 8K (sofern diese das zulassen).
 
Zuletzt bearbeitet:
Wenn aber 8K Monitore der neue Standard werden (was für alle Flimmerfeinde super wäre), wird 4K massenmarkttauglich

Ich bin übrigens selbst so ein FHD - Depp :D
Kommt mir einfach günstiger. Kann mit einer angeschimmelten Grafikkarte noch neue Spiele spielen usw. Brauche außerdem keine 2000€ Karte, sondern es hat (bis zur enormen Preiserhöhung der letzten 4 Jahre) eine um knappe 200€ gereicht (zuletzt hab ich 2016 meiner Frau eine 1060 im Sonderangebot gekauft, 220€).
Manche finden aber Auflösung so genial, dass ihnen das lieber ist als mehr grafische Details/Objekte usw.
Und ich kann das nicht nachvollziehen, denn mir ist der Weg zum Fotorealismus wichtiger, als hohe Auflösungen. Aber es gibt dann eben Leute - und offenbar nicht wenige - die Ticken halt anders. Jeder ist anders und gut ists.
Die haben dann einen 8K Monitor und eine 8K Grafikkarte und spielen moderne Spiele dann halt in 8K (mit teilweise reduzierte regler) auf iherer 4090 oder was auch immer, oder spielen Klassiker in 8K (sofern diese das zulassen).
Also ganz ehrlich, wenn man den unterschied bei der Auflösung nicht sieht dann weiß man mit Sicherheit nicht was Fotorealismus ist, natürlich spielt da die Auflösung eine große rolle aber rede es dir nur schön, hast sicherlich auch noch ein FHD VA Panel mit 60hz da kann ich nur mit dem Kopf schütteln wenn ich so ein Misst lese !!!!
 
Also ganz ehrlich, wenn man den unterschied bei der Auflösung nicht sieht dann weiß man mit Sicherheit nicht was Fotorealismus ist, natürlich spielt da die Auflösung eine große rolle aber rede es dir nur schön, hast sicherlich auch noch ein FHD VA Panel mit 60hz da kann ich nur mit dem Kopf schütteln wenn ich so ein Misst lese !!!!
ui, gleich so aggressiv. Was ist dir denn über die Leber gelaufen?
Sorry, wenn ich was geschrieben habe, was dir nicht in deine Meinung passt.
Frag dich mal was FotoREALISMUS ist. Hat das eher was mit Details, Beleuchtung und Co zu tun, oder mit Auflösung?
Ok ich frag dich anders: was ist "realistischer" oder fotorealistischer? Ein Screenshot in 8K, oder 16 K eines alten Spiels mit wenig Details, oder ein Foto aus dem Alltag, in FHD aufgenommen?
Oder anders gesagt: wenn du einen FIlm schaust, der vielleicht nur FHD hat, dafür spielst du ein Spiel in 8K, was sieht wohl "realistischer" aus?
Ich könnte dir jetzt ein Foto schicken, FHD. Und einen Screenshot, 4K. Und dann würdest du sofort sehen was ich meine, aber ich lass dich lieber ein wenig nachdenken. Die Chance zur Persönlichkeitsentwicklung darf ich dir nicht nehmen

Wenn du die Lösung hast, klingel einfach mal, ich gratulier dir dann!
Dein Preis ist eine Schulung in wertschätzender Kommunikation und ein wenig Bescheidenheit. Denn die Möglichkeit, dass deine Meinung nicht die absolute Wahrheit ist, das lässt du offenbar gar nicht zu. Zumindest suggeriert das dein Post.
 
Na also da kann man sich dann doch schon fragen in wie fern das ganze sinnvoll ist oder?

Ich meine sicher, der Wechsel von DP1.4 auf DP2.x ist ja nun im Grunde längs überfällig, wenn man sich mal
ansieht wann der Standard verabschiedet wurde. Nichts desto trotz ist der Standard natürlich extrem leistungsfähig.
Ob zu Anfang dann überhaupt Geräte kommen die fähig sind die Maximale Bandbreite zu nutzen, wird man ja sehen. (Ganz zu schweigen von Kabeln die länger sind als 1,5m...)
Ich stelle mir aber schon die Frage, ob "8K" überhaupt in den nächsten 5-10 Jahren ein "Ding" sein wird?

Ich wage dies ehrlich gesagt zu bezweifeln...

UHD dümpelt schon seit über 10 Jahren in der Computerwelt umher, hat aber bisher kaum eine
überragende Marktsättigung erreicht. Schon gar nicht wenn es nach Steam geht. Da sind wir immer noch bei
kläglichen 2,33%...

Und letzten Endes stelle ich mir auch die Frage warum?
Sicher, Ultrawides profitieren massiv von höheren Auflösungen pro Inch im Verhältnis z.B. zu
27" und 32" 16:9er UHD's.

Aber echtes 8K? Am Fernseher eventuell... oberhalb von 60"... Aber selbst dann. Hmm...
Smartphones? Laptops? Eher nicht. Also Monitore. Ok.
Ich kann durchaus einen Gewinn bei 32" Monitoren erkennen, insb. auf dem Windows Desktop,
beim Video Editing, Photoshop ect. Aber beim Zocken? :hmm:

Welche Bildwiederholrate hat man bei nem' aktuellen AAA-Titel mit RT doch gleich bei nativem 4K?
 
Zuletzt bearbeitet:
Wofür soll man sich dann eine RTX 4090 kaufen? Diejenigen, die sich eine RTX 4090 kaufen, haben meist andere Ansprüche, als Leute, die auf einem Full HD 60 Monitor zocken.
8K ist dennoch absoluter Schwachsinn im Jahre 2022 und wird es auch noch einige Jahre bleiben. Was möchte man denn dann spielen, wenn man nicht bei 60 FPS oder weniger rumgurken möchte? Irgendwelche Games bis ~2012 vielleicht? Da sind die Texturen dann oft so schlecht aufgelöst, als dass es sich einfach ohne zeitaufwendiges Modden nicht lohnt das überhaupt in Erwägung zu ziehen. Ich glaube, viele haben noch nicht ganz verstanden, was 8K eigentlich bedeutet (Stichwort Pixeldichte im Vergleich zu UHD) und was da für eine immense Rechenleistung gefordert wird.

Der Sprung von UHD auf 8K steht in keinem Kosten-Nutzen-Verhältnis mehr im Vergleich zu WQHD auf UHD, was die Steigerung der Bildqualität anbelangt (vielleicht maximal auf einem 80'' und größer Fernseher, wenn man nah genug davor sitzt, weil die Pixeldichte dann langsam zu gering wird). Selbst mit der 4090 kann man ja nicht einmal in jedem Spiel UHD nativ ausfahren, insbesondere, wenn man auch noch gewisse Ansprüche an eine annehmbare Bildrate (bei mir ~120 FPS in Singleplayerspielen) stellt. Klar könnte man auch die Regler entsprechend bedienen, aber wenn man dann so argumentiert, dass man lieber in 8K mit mittleren Details ohne Raytracing als in UHD mit maximalen Details spielt, hat man sowieso den Schuss nicht mehr gehört.

Bei 8K sind wir noch laaaaange nicht. Analog dazu sind ja auch die Preise für solche Displays (hauptsächlich TVs) angesetzt. Selbst wenn die nächste Grafikkartengeneration wieder doppelt so stark sein wird, wie der Sprung von der Letzten zur Jetzigen, dann reicht das immer noch nicht aus um 8K adäquat zu befeuern!

Und noch einmal als ein anderes Beispiel: Ob ich (wenn ich denn die Rechenleistung dafür zur Verfügung habe), auf meinem UHD-Monitor/Fernseher DL-DSR x2,25 nutze und dann quasi downgesampletes 6K habe oder ob ich (wenn ich zu viel Geld habe) mir ein 8K-Display kaufe und dann DLSS/FSR Quality einschalten muss, weil die Rechenleistung vielleicht noch für 6K, aber nicht mehr für 8K reicht, dann verspreche ich Euch: Ihr werdet keinen Unterschied sehen.

Für 4K mit max Settings und high FPS? Keine Ahnung, hab mir auch keine 3090 geholt sondern das kleinere Modell, ich brauche kein Flaggschiff da ich auf WQHD unterwegs bin.
Da hast Du im Prinzip auch echt alles richtig gemacht. Die 3080 liefert in etwa die Bildraten in WQHD, die die 4090 jetzt in UHD liefert. Entsprechend ist dann auch der VRAM dimensioniert. Ich kann das so bestätigen, weil ich die Karte auch im Rechner hatte. Da wirst Du bis zur nächsten GPU-Generation auch noch gut mit fahren, wenn Du bei 1440p bleibst.

Also ist für mich weiterhin der Sinn hinter DP 2.1 oder 8K 165hz fraglich, vor allem als eins der Hauptargumente für den Kauf einer RDNA3 Karte.
Exakt. Nur weil der Standard das unterstützt, heißt das nicht, dass die nun vorhandene Hardware diesen auch vernünftig nutzen kann. Ich habe jetzt nicht nach Quellen gegoogled, aber ich kann mir gut vorstellen, dass die Hersteller der ersten GPU-Generation, die DP 1.4 damals geboten hat, auch mit dem maximal möglichen geworben haben, was dieser Standard konnte/kann. Diese GPU haben dann aber bestimmt die wenigsten noch in ihrem Gaming-PC, wenn sie sie damals als "Enthuasiast" gekauft haben. ;)

Die Anschlüsse, die Nvidia mit der 4000er Generation bietet, sind angemessen. Das ist einfach ein Fakt. Das was AMD da auf der Bühne abgezogen hat, war einfach nur peinlich. Sie sollen sich auf ihre Hardware konzentrieren anstatt irgendwelche vermeintlich wunden Punkte beim "Konkurrenten" zu suchen.
 
Zuletzt bearbeitet:
8K Gaming ist aktuell absoluter Unsinn, egal von wem es kommt. WQHD hat ja nicht mal FullHD bei der Verbreitung überholt, geschweige denn 4K.
Es geht wahrscheinlich auch nur darum die ersten 1000 8k-Nerds auszurüsten und nicht gleich 70% vom Markt mit 8k zu überschwemmen.
Weil diese 3000-4000€ 8k-Monitore leisten sich ja sowieso nur eine selectierte Käuferschicht.

8k - in diesen Fall 8kUW - wird ein Leuchtturmprojekt für wenige Interessierte "Early Adopter" bleiben - da geht's bestimmt nicht darum kleine Auflösungen in der Hardwarestatistik zu überholen.

Erst in weiterer Folge, wenn der erste Schritt vollzogen ist, geht es darum , mehr von den Highend-Gamern in die nächste Ebene des Hardware-Wahnsinns zu locken.
 
Die 4090 hat noch einen Displayport 1.4a Anschluss. Da ist nix mit 2.0 oder 2.1
Ist mir bewusst, ich behaupte auch nichts anderes. Keine Ahnung was Du meinst...

Ich bezweifle einfach dass der DP 2.1 bei irgendwem der sich eine 7900XTX kauft innerhalb der nächsten 2 Jahre überhaupt ausgereizt wird.
 
Ist mir bewusst, ich behaupte auch nichts anderes. Keine Ahnung was Du meinst...

Ich bezweifle einfach dass der DP 2.1 bei irgendwem der sich eine 7900XTX kauft innerhalb der nächsten 2 Jahre überhaupt ausgereizt wird.
Es wird schon Spiele geben, bei denen ne XTX 8K 60Hz HDR nutzen kann.
DP 1.4 schafft nativ nicht mal 8K HDR bei 30Hz.
 
Es wird schon Spiele geben, bei denen ne XTX 8K 60Hz HDR nutzen kann.
DP 1.4 schafft nativ nicht mal 8K HDR bei 30Hz.

Bestimmt wird es die geben. Aber wie viele denn? Und in welcher Zeitspanne?

Wenn das Argument gegen RT und DLSS quasi dauerhaft die nicht vorhandene Menge an Spielen war/ist, dann sollte man in der Argumentation auch konsequent bleiben, findest Du nicht? Dasselbe mit dem "Speichergeiz" der letzten Gen, auch hier gibt es bisher genau 3 Beispiele in denen eine 3080 als Beispiel mit 10 GB auf 4K + RT + HD Textures nicht auskommt.

Die 8K 60hz HDR Nische ist absehbar deutlich kleiner...
 
Die Abwesenheit von DP2.0/2.1 bei Ada ist für mich ein absolutes Manko und ich verstehe weiterhin nicht, warum diese Dummheit so in Produktion gegangen ist.

Extrem hochauflösende VR/AR HMDs sind jetzt schon über dem BW-Limit von DP1.4a. Extrem frustrierend.

Wenn da noch was oberhalb der 7900XTX kommt dann gebe ich meine 4090 ab, vorausgesetzt VR Performance ist analog zur Rasterleistung.

Ich verstehe es einfach nicht…

tztz
Warum wurde die RTX 2080 auch nur mit 8GB rausgebracht und die RTX 3080 mit kaum mehr?
 
Köstlich, die Kommentare hier. Das ganze Gift spucken, ranten und lästern könnte man sich mit folgender Erkenntnis sparen: AMD hat den DP 2.1 schlichtweg aus rein PR-technischen Gründen hervorgehoben und dem simplen Fakt, dass sie da ein technisch nominell besseres Feature auf einer Karte um die Hälfte des Preises der RTX 4090 bieten. Punkt.

Trotz irgendwelcher 8K-FSR-FPS Slides glaubt sicher niemand ernsthaft, auch AMD nicht, dass das Gros der Spielerschaft auf 8K zockt, zocken will oder jetzt losrennt und 8K Monitore kauft.
 
Ich sags mal so mein 240 HZ Monitore mit HDR würde sich über DisplayPort 2.1 freuen.
Nur leider bringt mir da auch die AMD GPU nichts weil es der Monitore selber halt noch nicht kann.
Schade Marmelade.
 
Zurück