Displayport 2.0 soll nun gegen Ende 2021 starten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Displayport 2.0 soll nun gegen Ende 2021 starten

Wie HDMI 2.1 lässt auch Displayport 2.0 weiter auf sich warten. Ein Sprecher der VESA sagte nun, dass man bis Ende des Jahres mit den ersten Geräten rechnen kann. Wie schnell allerdings die Verbreitung läuft, wird man noch sehen müssen und im PC-Segment müssen auch die Grafikkarten.Anbieter mitziehen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Displayport 2.0 soll nun gegen Ende 2021 starten
 
Was hat Corona damit zu tun, dass AMD und Nvidia beide nicht auf DP 2.0 gesetzt haben und stattdessen HDMI 2.1 gewählt haben?
 
Nachdem die doch mit dabei sind werden die schon gewusst habem, DP kommt nicht vor Ende des Jahres, also lieber gleich in die nächste Gen Einbauen, direkt ein Verkaufsgrund
 
Der Artikel liest sich ziemlich wirr... So, als hätte ein mit Hangover kämpfender Redakteur seine losen Gedankenstränge einer rumänischen Sprachsoftware diktiert, die daraus einen Text gebastelt hat. Von einer Korrekturlesung ganz zu schweigen...
 
Nachdem sich HDMI 2.1 ganz langsam auch in Produkten wiederfindet, der Standard wurde zur Erinnerung bereits 2017 vorgestellt, will die VESA nun auch Displayport 2.0 bis Ende 2021 starten.
@ssj3rd
Wie sollen AMD und Nvidia auf DP2.0 setzen wenn es von der VESA noch gar nicht freigegeben ist?
 
Was hat Corona damit zu tun, dass AMD und Nvidia beide nicht auf DP 2.0 gesetzt haben und stattdessen HDMI 2.1 gewählt haben?
Weil Corona sich nicht gegen Verleumdung verteidigen kann. ;) Momentan ist irgendwie an jedem Versagen oder Unvermögen Corona Schuld.....

Ich glaube es ist schon bewusst so gewollt das DP 2.0 noch nicht von Grafikkarten Unterstützt wird.....das ist ein Feature mit dem man die nächste Gen Karten verkaufen /bewerben möchte.

Wenn ich richtig im Netz geschaut habe ist der DP 2.0 Standard bereits seit August 19 Final, bzw. mit den Specs so vorgestellt worden.
 
Zuletzt bearbeitet:
Man darf auch nicht vergessen, dass mit HDMI 2.1 immerhin zu DP 1.4 aufgeschlossen wurde bzw. in teilen überholt wurde. Von daher ist es gerade eine Pattsituation.

Rein vom Marketing her: ich denke man kann die Trollel deutlich stärker befeuern wenn man für die nächste Gen groß 2.0 als "ultimativ 8K-Ready mit BombastWow-Technik" anpreisen kann und die HighEnd Grafikkarten vom Kaliber xx80 (NV) / x800 (XT) (AMD) anstatt nur xx90 / x9x0 (XT) auch wirklich was auf den - aktuell sowieso noch nicht wirklich existenten - Bildschirm bringen können :D Damit meine ich 8K bei 60FPS mit zumindest mittleren/hohen Einstellungen (ggf. mit Hilfssystemen)
Und wenn man jetzt schon High-FPS UHD Gaming betreiben möchte, ist mit DP1.4 ja aktuell eine gute Lösung vorhanden. Natürlich noch nicht mit einer Kirsche oben drauf, aber es ist lang nicht so ein Dilemma wie mit HDMI 1.4(a,b) / 2.0(a) usw. :schief:
 
DSC kann nicht verlustfrei sein. Das ist technisch nicht möglich. Wäre schön wenn das klarer im Artikel rauskommt. Unbedarfte könnte aus dem Artikel herauslesen, dass DSC verlustfrei wäre.
 
Es gibt seit längerem einen Rückstand, was die Anschlüsse angeht.
Die größten Makel:
  1. Intel hat durch die künstliche Lebensverlängerung der UHD630 (DP1.2) DP1.4 sabotiert. Insbesondere der Notebookmarkt (dort kommt eDP1.4 gerade erst wirklich an) hat darunter heftig gelitten; mittelbar hat das natürlich auch auf den Desktopmarkt Auswirkungen.
  2. Die Monitorhersteller haben DP 1.4 sabotiert, indem sie keine aktualisierten Versionen ihrer allein durch den Anschluss limitierten UHD60-DP1.2-Monitore herausgebracht haben. (oftmals wäre dann direkt UHD72, manchmal sogar direkt auch viel mehr drinnen gewesen)
  3. Die Monitorhersteller haben es nicht geschafft, ihre HighEnd-DP1.4-Angebote im Zeitplan vorzustellen. (also allen voran Predator X27, PG27UQ) Dazu hatten sie die unnötige Lüfter-Schwachstelle und launchten auch zum gegenüber den Erwartungen etwa verdoppelten Preis.
  4. Bei HDMI2.1 kam die Finalisierung einfach ewig und drei Tage verspätet. Eigentlich hätte bereits die OneX HDMI2.1 haben können, das hätte zwar nicht der Konsole, wohl aber dem Fernseher- und Monitormarkt viel gebracht.
 
Weil Corona sich nicht gegen Verleumdung verteidigen kann. ;) Momentan ist irgendwie an jedem Versagen oder Unvermögen Corona Schuld.....

Ich glaube es ist schon bewusst so gewollt das DP 2.0 noch nicht von Grafikkarten Unterstützt wird.....das ist ein Feature mit dem man die nächste Gen Karten verkaufen /bewerben möchte.

Wenn ich richtig im Netz geschaut habe ist der DP 2.0 Standard bereits seit August 19 Final, bzw. mit den Specs so vorgestellt worden.

Einfach mal die Quelle lesen:

The delay is due to the ongoing coronavirus pandemic. Hardware developers and engineers typically convene together a few times a year at a Plugtest event. These events are where multiple companies test systems and work out interoperability issues. “In 2020 VESA had no PlugTests, which has slowed the deployment of DisplayPort 2.0,” explains a VESA spokesperson. “VESA is now planning our next PlugTest for this Spring in Taiwan, so we expect to get this process rolling again.”
 
Displayport und HDMI haben eben einen Versatz von ca. einer halben Generation, sodass mal der eine und mal der andere fortschrittlicher ist.

Das DP 1.3 und 1.4 so ignoriert wurden, lag daran, dass der Hauptnutzen bei den 4K 144Hz Monitoren lag und die noch nicht wirklich gefragt sind, genau wie 5K Monitore. Mit 8K wird sich das dann hoffentlich ändern, das wird wohl gefragt sein.
 
DSC kann nicht verlustfrei sein. Das ist technisch nicht möglich. Wäre schön wenn das klarer im Artikel rauskommt. Unbedarfte könnte aus dem Artikel herauslesen, dass DSC verlustfrei wäre.
Prinzipiell wäre ein solcher Algorithmus denkbar. Aber DSC ist es höchstwahrscheinlich nicht, dafür gibt es ein starkes Indiz. Denn wenn DSC verlustfrei wäre, hätte die VESA keinen Anlass gehabt den Begriff visuell verlustfrei erfunden.
Einfacher Vergleich:
Betrachtet den Begriff ohne Zuckerzusatz für Lebensmittel und stellt euch einmal vor, der wäre zunächst mit einem Lebensmittel eingeführt worden, das absolut keinen Zucker enthielt. Das ergäbe genauso wenig Sinn... (hätte man ja auch immer noch einfach ohne Zucker für die Werbung nutzen können)
 
DSC kann nicht verlustfrei sein. Das ist technisch nicht möglich.
Quatsch.
Natürlich kann es verlustfrei sein (verlustfreie Bild-/Videokompressionstechniken gibts wie Sand am Meer, die sind nur naturgemäß nicht besonders effizient).
Es ist es nur nicht weil man sich bewusst dafür entschieden hat (laut VESA) nicht erkennbare Unterschiede zu Gunsten höherer Kompression zu erlauben.

ZUmindest von dem was ich bisher gesehen habe als Vergleich mit/ohne DSC muss ich auch sagen: Ich erkenne tatsächlich selbst bei genauem Hinsehen keinen Unterschied.

EDIT: zu langsam^^
 
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?
 
Damit meine ich 8K bei 60FPS mit zumindest mittleren/hohen Einstellungen (ggf. mit Hilfssystemen)
Ich finde so Aussagen immer irgendwie fragwürdig.....
Wenn man als wieder höhere Auflösungen möchte und/oder FPS, dann muss man davon ausgehen,
dass die Engines stehenbleiben und auch nicht mehr fressen dürfen.
Oder die Voreinstellung "Mittel" wird künftig quasi "Low" entsprechen.

Früher war das noch denkbar, aber heute sind die Performanceschritte zwischen den GPU Generationen einfach nicht mehr so groß und es wird weniger.
Von 4K zu 8K, was brauchen wir da, 4-fache Performance? Und was bekommen wir bei neuen Generationen?
Netma es Doppelte.
 
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?

Schwierig.
Grundsätzlich gibt es über USB-C nur den DisplayPort Alternate Modus. Der muss aber auch entsprechend implementiert sein und wird (meist) auch gekennzeichnet, im Handbuch erwähnt oder in den Spezifikationen genannt. Hier wird dann oft die interne (integriert oder dediziert) GPU genommen. Sowas findet man in der Regel bei Laptops usw. Da reicht dir dann auch der normale Grafiktreiber.

Wenn man jetzt aber an einen simplen USB-C Anschluss so etwas anstecken will, muss ja irgendeiner dafür zuständig sein dieses Bildsignal über USB zu versenden und entsprechend auf HDMI oder DP zu transferieren. Dazu muss die entsprechende HW und der Treiber dazu da sein.
Mir ist nicht bekannt, dass die heutigen Mainboards Bildausgaben über USB implementiert haben. Ich kenne zumindest die Treiberlösung DisplayLink welche sich zumindest darum kümmert, dass die entsprechenden Signale über USB gesendet werden. Aber im Grunde muss der Adapter hier einen entsprechenden Part als "GPU" einnehmen oder die Grafikkarte übernimmt das.

Vielleicht hats schon jemand probiert, ich würde nicht sagen, dass das funktioniert. Außer der Adapter kommt mit einem entsprechenden Treiber her, wodurch der dann als "richtige Bildausgabe" bei Windows bekannt ist.
 
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?

Der USB-C wird normalerweise da keine Bildausgabe unterstützen.

Wenn er es könnte, wäre es explizit angegeben.
 
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?
Wenn es ein Adapter ist, dann werden einfach nur die Leitungen von USB C auf HDMI gelegt. Die Bilderzeugung übernimmt dann das Smartphone, Tablet, Laptop oder eben die Graka. Wenn es jedoch ein Konverter ist, der auch gerne als Adapter bezeichnet wird, dann handelt es sich quasi um eine Graka, die per USB angeschlossen wird. Sowas gibt es ab USB 3.0 (wobei meines Wissens auch schon für USB 2.0 Exemplare hergestellt wurden). Zu erkennen istz ein Konverter daran, dass er deutlich teurer (im oberen zweistelligen Bereich) und deutlich größer ist. Während Adapter schon für wenige Euro erhältlich und nicht viel größer als die eigentlichen Stecker sind.
 
Zurück