• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Displayport 2.0 soll nun gegen Ende 2021 starten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Displayport 2.0 soll nun gegen Ende 2021 starten

Wie HDMI 2.1 lässt auch Displayport 2.0 weiter auf sich warten. Ein Sprecher der VESA sagte nun, dass man bis Ende des Jahres mit den ersten Geräten rechnen kann. Wie schnell allerdings die Verbreitung läuft, wird man noch sehen müssen und im PC-Segment müssen auch die Grafikkarten.Anbieter mitziehen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Displayport 2.0 soll nun gegen Ende 2021 starten
 

ssj3rd

Komplett-PC-Aufrüster(in)
Was hat Corona damit zu tun, dass AMD und Nvidia beide nicht auf DP 2.0 gesetzt haben und stattdessen HDMI 2.1 gewählt haben?
 

hanfi104

Volt-Modder(in)
Nachdem die doch mit dabei sind werden die schon gewusst habem, DP kommt nicht vor Ende des Jahres, also lieber gleich in die nächste Gen Einbauen, direkt ein Verkaufsgrund
 

Regenerator

PC-Selbstbauer(in)
Der Artikel liest sich ziemlich wirr... So, als hätte ein mit Hangover kämpfender Redakteur seine losen Gedankenstränge einer rumänischen Sprachsoftware diktiert, die daraus einen Text gebastelt hat. Von einer Korrekturlesung ganz zu schweigen...
 

Vrtra81

Komplett-PC-Aufrüster(in)
Nachdem sich HDMI 2.1 ganz langsam auch in Produkten wiederfindet, der Standard wurde zur Erinnerung bereits 2017 vorgestellt, will die VESA nun auch Displayport 2.0 bis Ende 2021 starten.
@ssj3rd
Wie sollen AMD und Nvidia auf DP2.0 setzen wenn es von der VESA noch gar nicht freigegeben ist?
 

SFT-GSG

Software-Overclocker(in)
Was hat Corona damit zu tun, dass AMD und Nvidia beide nicht auf DP 2.0 gesetzt haben und stattdessen HDMI 2.1 gewählt haben?
Weil Corona sich nicht gegen Verleumdung verteidigen kann. ;) Momentan ist irgendwie an jedem Versagen oder Unvermögen Corona Schuld.....

Ich glaube es ist schon bewusst so gewollt das DP 2.0 noch nicht von Grafikkarten Unterstützt wird.....das ist ein Feature mit dem man die nächste Gen Karten verkaufen /bewerben möchte.

Wenn ich richtig im Netz geschaut habe ist der DP 2.0 Standard bereits seit August 19 Final, bzw. mit den Specs so vorgestellt worden.
 
Zuletzt bearbeitet:

Syllub

Komplett-PC-Aufrüster(in)
Man darf auch nicht vergessen, dass mit HDMI 2.1 immerhin zu DP 1.4 aufgeschlossen wurde bzw. in teilen überholt wurde. Von daher ist es gerade eine Pattsituation.

Rein vom Marketing her: ich denke man kann die Trollel deutlich stärker befeuern wenn man für die nächste Gen groß 2.0 als "ultimativ 8K-Ready mit BombastWow-Technik" anpreisen kann und die HighEnd Grafikkarten vom Kaliber xx80 (NV) / x800 (XT) (AMD) anstatt nur xx90 / x9x0 (XT) auch wirklich was auf den - aktuell sowieso noch nicht wirklich existenten - Bildschirm bringen können :D Damit meine ich 8K bei 60FPS mit zumindest mittleren/hohen Einstellungen (ggf. mit Hilfssystemen)
Und wenn man jetzt schon High-FPS UHD Gaming betreiben möchte, ist mit DP1.4 ja aktuell eine gute Lösung vorhanden. Natürlich noch nicht mit einer Kirsche oben drauf, aber es ist lang nicht so ein Dilemma wie mit HDMI 1.4(a,b) / 2.0(a) usw. :schief:
 

NamenI_os

Kabelverknoter(in)
DSC kann nicht verlustfrei sein. Das ist technisch nicht möglich. Wäre schön wenn das klarer im Artikel rauskommt. Unbedarfte könnte aus dem Artikel herauslesen, dass DSC verlustfrei wäre.
 

CD LABS: Radon Project

Volt-Modder(in)
Es gibt seit längerem einen Rückstand, was die Anschlüsse angeht.
Die größten Makel:
  1. Intel hat durch die künstliche Lebensverlängerung der UHD630 (DP1.2) DP1.4 sabotiert. Insbesondere der Notebookmarkt (dort kommt eDP1.4 gerade erst wirklich an) hat darunter heftig gelitten; mittelbar hat das natürlich auch auf den Desktopmarkt Auswirkungen.
  2. Die Monitorhersteller haben DP 1.4 sabotiert, indem sie keine aktualisierten Versionen ihrer allein durch den Anschluss limitierten UHD60-DP1.2-Monitore herausgebracht haben. (oftmals wäre dann direkt UHD72, manchmal sogar direkt auch viel mehr drinnen gewesen)
  3. Die Monitorhersteller haben es nicht geschafft, ihre HighEnd-DP1.4-Angebote im Zeitplan vorzustellen. (also allen voran Predator X27, PG27UQ) Dazu hatten sie die unnötige Lüfter-Schwachstelle und launchten auch zum gegenüber den Erwartungen etwa verdoppelten Preis.
  4. Bei HDMI2.1 kam die Finalisierung einfach ewig und drei Tage verspätet. Eigentlich hätte bereits die OneX HDMI2.1 haben können, das hätte zwar nicht der Konsole, wohl aber dem Fernseher- und Monitormarkt viel gebracht.
 

Vrtra81

Komplett-PC-Aufrüster(in)
Weil Corona sich nicht gegen Verleumdung verteidigen kann. ;) Momentan ist irgendwie an jedem Versagen oder Unvermögen Corona Schuld.....

Ich glaube es ist schon bewusst so gewollt das DP 2.0 noch nicht von Grafikkarten Unterstützt wird.....das ist ein Feature mit dem man die nächste Gen Karten verkaufen /bewerben möchte.

Wenn ich richtig im Netz geschaut habe ist der DP 2.0 Standard bereits seit August 19 Final, bzw. mit den Specs so vorgestellt worden.

Einfach mal die Quelle lesen:

The delay is due to the ongoing coronavirus pandemic. Hardware developers and engineers typically convene together a few times a year at a Plugtest event. These events are where multiple companies test systems and work out interoperability issues. “In 2020 VESA had no PlugTests, which has slowed the deployment of DisplayPort 2.0,” explains a VESA spokesperson. “VESA is now planning our next PlugTest for this Spring in Taiwan, so we expect to get this process rolling again.”
 

Pu244

Lötkolbengott/-göttin
Displayport und HDMI haben eben einen Versatz von ca. einer halben Generation, sodass mal der eine und mal der andere fortschrittlicher ist.

Das DP 1.3 und 1.4 so ignoriert wurden, lag daran, dass der Hauptnutzen bei den 4K 144Hz Monitoren lag und die noch nicht wirklich gefragt sind, genau wie 5K Monitore. Mit 8K wird sich das dann hoffentlich ändern, das wird wohl gefragt sein.
 

CD LABS: Radon Project

Volt-Modder(in)
DSC kann nicht verlustfrei sein. Das ist technisch nicht möglich. Wäre schön wenn das klarer im Artikel rauskommt. Unbedarfte könnte aus dem Artikel herauslesen, dass DSC verlustfrei wäre.
Prinzipiell wäre ein solcher Algorithmus denkbar. Aber DSC ist es höchstwahrscheinlich nicht, dafür gibt es ein starkes Indiz. Denn wenn DSC verlustfrei wäre, hätte die VESA keinen Anlass gehabt den Begriff visuell verlustfrei erfunden.
Einfacher Vergleich:
Betrachtet den Begriff ohne Zuckerzusatz für Lebensmittel und stellt euch einmal vor, der wäre zunächst mit einem Lebensmittel eingeführt worden, das absolut keinen Zucker enthielt. Das ergäbe genauso wenig Sinn... (hätte man ja auch immer noch einfach ohne Zucker für die Werbung nutzen können)
 

Incredible Alk

Moderator
Teammitglied
DSC kann nicht verlustfrei sein. Das ist technisch nicht möglich.
Quatsch.
Natürlich kann es verlustfrei sein (verlustfreie Bild-/Videokompressionstechniken gibts wie Sand am Meer, die sind nur naturgemäß nicht besonders effizient).
Es ist es nur nicht weil man sich bewusst dafür entschieden hat (laut VESA) nicht erkennbare Unterschiede zu Gunsten höherer Kompression zu erlauben.

ZUmindest von dem was ich bisher gesehen habe als Vergleich mit/ohne DSC muss ich auch sagen: Ich erkenne tatsächlich selbst bei genauem Hinsehen keinen Unterschied.

EDIT: zu langsam^^
 

Nebulus07

Software-Overclocker(in)
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?
 

Jobsti84

Software-Overclocker(in)
Damit meine ich 8K bei 60FPS mit zumindest mittleren/hohen Einstellungen (ggf. mit Hilfssystemen)
Ich finde so Aussagen immer irgendwie fragwürdig.....
Wenn man als wieder höhere Auflösungen möchte und/oder FPS, dann muss man davon ausgehen,
dass die Engines stehenbleiben und auch nicht mehr fressen dürfen.
Oder die Voreinstellung "Mittel" wird künftig quasi "Low" entsprechen.

Früher war das noch denkbar, aber heute sind die Performanceschritte zwischen den GPU Generationen einfach nicht mehr so groß und es wird weniger.
Von 4K zu 8K, was brauchen wir da, 4-fache Performance? Und was bekommen wir bei neuen Generationen?
Netma es Doppelte.
 

Syllub

Komplett-PC-Aufrüster(in)
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?

Schwierig.
Grundsätzlich gibt es über USB-C nur den DisplayPort Alternate Modus. Der muss aber auch entsprechend implementiert sein und wird (meist) auch gekennzeichnet, im Handbuch erwähnt oder in den Spezifikationen genannt. Hier wird dann oft die interne (integriert oder dediziert) GPU genommen. Sowas findet man in der Regel bei Laptops usw. Da reicht dir dann auch der normale Grafiktreiber.

Wenn man jetzt aber an einen simplen USB-C Anschluss so etwas anstecken will, muss ja irgendeiner dafür zuständig sein dieses Bildsignal über USB zu versenden und entsprechend auf HDMI oder DP zu transferieren. Dazu muss die entsprechende HW und der Treiber dazu da sein.
Mir ist nicht bekannt, dass die heutigen Mainboards Bildausgaben über USB implementiert haben. Ich kenne zumindest die Treiberlösung DisplayLink welche sich zumindest darum kümmert, dass die entsprechenden Signale über USB gesendet werden. Aber im Grunde muss der Adapter hier einen entsprechenden Part als "GPU" einnehmen oder die Grafikkarte übernimmt das.

Vielleicht hats schon jemand probiert, ich würde nicht sagen, dass das funktioniert. Außer der Adapter kommt mit einem entsprechenden Treiber her, wodurch der dann als "richtige Bildausgabe" bei Windows bekannt ist.
 

DKK007

PCGH-Community-Veteran(in)
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?

Der USB-C wird normalerweise da keine Bildausgabe unterstützen.

Wenn er es könnte, wäre es explizit angegeben.
 

Pu244

Lötkolbengott/-göttin
Mal ne blöde Frage, wenn ich an den USB-C Anschluß meines Mainbaords (der 10 Gigabit kann) einen Adapter nach HDMI Anschließe, dann sehe ich das Bild meiner Grafikkarte an dem HDMI Anschluß? Oder ist der USB-HDMI Adapter dann eine eigene Grafikkarte?
Wenn es ein Adapter ist, dann werden einfach nur die Leitungen von USB C auf HDMI gelegt. Die Bilderzeugung übernimmt dann das Smartphone, Tablet, Laptop oder eben die Graka. Wenn es jedoch ein Konverter ist, der auch gerne als Adapter bezeichnet wird, dann handelt es sich quasi um eine Graka, die per USB angeschlossen wird. Sowas gibt es ab USB 3.0 (wobei meines Wissens auch schon für USB 2.0 Exemplare hergestellt wurden). Zu erkennen istz ein Konverter daran, dass er deutlich teurer (im oberen zweistelligen Bereich) und deutlich größer ist. Während Adapter schon für wenige Euro erhältlich und nicht viel größer als die eigentlichen Stecker sind.
 

ssj3rd

Komplett-PC-Aufrüster(in)
Ihr sagt, dass DP 2.0 dann eben mit der nächsten Generation raus kommt, ihr lasst das so klingen als ob das demnächst wäre...

Eine GTX 2080 hat 2018 das Licht der Welt erblickt, eine 3080 dann 2 Jahre später 2020.

Also werden wir eine neue Grafikkarten Generation wohl wieder erst Ende 2022 zu Gesicht bekommen, dass ist nicht gerade morgen....
 

Incredible Alk

Moderator
Teammitglied
Also werden wir eine neue Grafikkarten Generation wohl wieder erst Ende 2022 zu Gesicht bekommen, dass ist nicht gerade morgen....
Kommt aufn Betrachtungswinkel an. Wenn ich mir überlege dass meine 2080 schon 2,5 Jahre alt ist... kommt mir vor wie vor 4 Wochen. Genauso die X570 Plattform - auch schon 1,5 Jahre alt. Irre.

Und neben den GPUs müssen ja auch entsprechende Bildschirme da sein, das dauert ja gefühlt nochmal viel länger. Ich warte jetzt schon ein bisschen auf 32 Zoll-4K Displays mit 120 Hz und mehr, die "demnächst" erscheinen. Seit 2014. Da wars auch schon "demnächst". Is 7 Jahre her. So vergeht die zeit. Von anderen techniken ganz zu schweigen. Die ersten HAMR-Festplatten wurden iirc 2002 angekündigt - es gibt bis heute keine zu kaufen. :ugly:
 

Pu244

Lötkolbengott/-göttin
Ihr sagt, dass DP 2.0 dann eben mit der nächsten Generation raus kommt, ihr lasst das so klingen als ob das demnächst wäre...

Eine GTX 2080 hat 2018 das Licht der Welt erblickt, eine 3080 dann 2 Jahre später 2020.

Also werden wir eine neue Grafikkarten Generation wohl wieder erst Ende 2022 zu Gesicht bekommen, dass ist nicht gerade morgen....

AMD möchte seine RDNA 3 Karten Ende 2021, bzw. Anfang 2022 vorstellen. Von daher könnte es doch etwas eher kommen.
 

JoM79

Trockeneisprofi (m/w)
DP kommt wie immer zu spät.
HDMI 2.1 ist am Markt angekommen und reicht für UHD 120Hz HDR locker ohne Kompression.
Selbst 144Hz wären drin und mit Kompression sogar "8K" 60Hz.
Für das was viele nutzen wollen, UHD 120Hz VRR, ist HDMI 2.1 nahezu ideal.
 

Pu244

Lötkolbengott/-göttin
Und neben den GPUs müssen ja auch entsprechende Bildschirme da sein, das dauert ja gefühlt nochmal viel länger.

Ich schätze mal, dass die erschwinglichen 8K Bildschirme in naher Zukunft auf den Markt kommen werden, 8K Fernseher gab es ja schon für unter 1000€.

Die ersten HAMR-Festplatten wurden iirc 2002 angekündigt - es gibt bis heute keine zu kaufen. :ugly:

Die gibt es zu kaufen, nur eben nicht für den normalen Endkunden. Vermutlich wird es noch ein wenig dauern, bis sie wissen, ob man diese HDDs auf die normale Menschheit loslassen kann oder ob das ganze doch noch einer Überarbeitung bedarf.
 

gloriav

PC-Selbstbauer(in)
Wofür soll das gut sein ? 4k 240hz? Hoffe brauche kein neues Kabel für den g7 240hz 1440p was braucht es da 1.4 oder?
 

DKK007

PCGH-Community-Veteran(in)
Wenn es ein Adapter ist, dann werden einfach nur die Leitungen von USB C auf HDMI gelegt. Die Bilderzeugung übernimmt dann das Smartphone, Tablet, Laptop oder eben die Graka. Wenn es jedoch ein Konverter ist, der auch gerne als Adapter bezeichnet wird, dann handelt es sich quasi um eine Graka, die per USB angeschlossen wird. Sowas gibt es ab USB 3.0 (wobei meines Wissens auch schon für USB 2.0 Exemplare hergestellt wurden). Zu erkennen istz ein Konverter daran, dass er deutlich teurer (im oberen zweistelligen Bereich) und deutlich größer ist. Während Adapter schon für wenige Euro erhältlich und nicht viel größer als die eigentlichen Stecker sind.

Die Konverter können aber maximal 1920x1200 mit 30 oder 60 Hz.
 

NamenI_os

Kabelverknoter(in)
Prinzipiell wäre ein solcher Algorithmus denkbar. Aber DSC ist es höchstwahrscheinlich nicht, dafür gibt es ein starkes Indiz. Denn wenn DSC verlustfrei wäre, hätte die VESA keinen Anlass gehabt den Begriff visuell verlustfrei erfunden.
Einfacher Vergleich:
Betrachtet den Begriff ohne Zuckerzusatz für Lebensmittel und stellt euch einmal vor, der wäre zunächst mit einem Lebensmittel eingeführt worden, das absolut keinen Zucker enthielt. Das ergäbe genauso wenig Sinn... (hätte man ja auch immer noch einfach ohne Zucker für die Werbung nutzen können)

Quatsch.
Natürlich kann es verlustfrei sein (verlustfreie Bild-/Videokompressionstechniken gibts wie Sand am Meer, die sind nur naturgemäß nicht besonders effizient).
Es ist es nur nicht weil man sich bewusst dafür entschieden hat (laut VESA) nicht erkennbare Unterschiede zu Gunsten höherer Kompression zu erlauben.

ZUmindest von dem was ich bisher gesehen habe als Vergleich mit/ohne DSC muss ich auch sagen: Ich erkenne tatsächlich selbst bei genauem Hinsehen keinen Unterschied.

EDIT: zu langsam^^
Etwas spät aber das ganze *kann* wirklich nicht verlustfrei sein, denn DSC hat ein festes Kompressionsverhältnis (1:3). Wird die Entropie größer als das Kompressionsverhältnis ist mathematisch Schluss mit verlustfrei. Praktisch ist auch schon viel früher Schluss. Dass DSC besser ist als 4:2:0 glaub ich gern, mehr aber auch nicht.
 

CD LABS: Radon Project

Volt-Modder(in)
Etwas spät aber das ganze *kann* wirklich nicht verlustfrei sein, denn DSC hat ein festes Kompressionsverhältnis (1:3). Wird die Entropie größer als das Kompressionsverhältnis ist mathematisch Schluss mit verlustfrei. Praktisch ist auch schon viel früher Schluss. Dass DSC besser ist als 4:2:0 glaub ich gern, mehr aber auch nicht.
Ganz rein ist das Argument nicht. Man könnte eine Kompression mit einem stets besseren Verhältnis auch auf einen festen Wert deckeln. Aber ja, es ist ein weiteres Indiz.
 

DKK007

PCGH-Community-Veteran(in)
Sicher?

Die nutzen aber das Displayport-Signal vom Thunderbolt / USB-C. An einem reinen USB-C ohne DP-Alt-Modus gehen die nicht. Damit wird auch die iGPU für die Bildausgabe genutzt. Es sind also reine Adapter.

Bei beiden steht es im Kleingedruckten dabei:
  • NUR mit Geräten im DP-Alt-Modus arbeiten.
  • NUR mit videofähigen USB-C-Geräten für die Videoausgabe arbeiten.
  • Kompatibilität: Computer mit USB-Anschluss Typ C oder Thunderbolt 3 und DisplayPort-Alternate-Mode-Unterstützung
 
Zuletzt bearbeitet:
Oben Unten